Claude, modelul de inteligență artificială dezvoltat de Anthropic, a urcat rapid în topurile aplicațiilor din App Store, depășind chiar și popularul ChatGPT

Claude, modelul de inteligență artificială dezvoltat de Anthropic, a urcat rapid în topurile aplicațiilor din App Store, depășind chiar și popularul ChatGPT. Ascensiunea spectaculoasă a avut loc pe fondul unei dezbateri aprinse legate de modul în care companiile de inteligență artificială colaborează cu instituțiile statului, în special cu Pentagonul. Reacția utilizatorilor, care au ales să descarce și să susțină Claude, a evidențiat importanța tot mai mare a eticii și a poziționării companiilor în fața publicului.

Un salt spectaculos în preferințe

La sfârșitul lunii ianuarie, Claude se afla puțin peste primele 100 de aplicații gratuite din SUA, conform datelor publicate de presă. În februarie, a urcat constant, ajungând pe primul loc în topul aplicațiilor gratuite. Această schimbare a coincis cu o serie de controverse legate de colaborarea dintre companii de inteligență artificială și Departamentul Apărării. Reprezentanții Anthropic au indicat că înscrierile zilnice au atins recorduri în ultima săptămână, cu o creștere de peste 60% a utilizatorilor gratuiti din ianuarie și o dublare a numărului de abonați plătitori în acest an. Aceste cifre vin după o triplare a înscrierilor zilnice începând din noiembrie anul trecut, sugerând o tendință de creștere accelerată.

Utilizatorii nu au reacționat doar la performanțele tehnice ale modelelor, ci și la modul în care companiile și-au prezentat poziția. Descărcarea lui Claude a fost interpretată drept un gest de susținere simbolică. Mulți utilizatori au anunțat că renunță la ChatGPT și se îndreaptă către Claude, în semn de protest față de acordul OpenAI cu Departamentul Apărării.

Miză: etica utilizării AI de către stat

Principala cauză a reacției publice intense este legată de conflictul de principii. Anthropic a susținut că negocierile cu guvernul american au eșuat din cauza a două „linii roșii”: utilizarea AI pentru supraveghere domestică în masă și pentru arme complet autonome. Compania a declarat că sprijină utilizările legale în domeniul apărării și informațiilor externe, refuzând însă scenariile care ar putea intra în conflict cu valorile democratice și cu controlul uman asupra forței letale.

Pe de altă parte, OpenAI a încheiat un acord cu Pentagonul, permițând implementarea sistemelor sale AI în medii clasificate. Sam Altman a subliniat că acordul include propriile „linii roșii” și măsuri de protecție. Totuși, discuția nu este doar despre existența unor principii generale, ci și despre formularea exactă a limitelor contractuale, în special în ceea ce privește supravegherea și datele publice ale cetățenilor americani. Pentru mulți utilizatori, diferența dintre „avem garanții” și „refuzăm contractual anumite utilizări” este majoră. În opinia acestora, Anthropic a adoptat o poziție clară, în timp ce OpenAI a părut mai dispusă să colaboreze cu statul, chiar dacă susține că menține protecții.

Implicații pentru viitorul inteligenței artificiale

Succesul lui Claude arată că utilizatorii obișnuiți pot influența competiția dintre companiile de inteligență artificială mai mult decât se credea. Publicul reacționează direct: descarcă, anulează abonamente, schimbă tabăra, transformând dezbaterea etică într-un semnal de piață. Topul din App Store devine un indicator al încrederii.

Episodul actual ar putea obliga companiile mari din domeniul AI să fie mai transparente în ceea ce privește limitele pe care le acceptă. Va exista presiune tot mai mare pentru a defini concret ce înseamnă „responsabil” atunci când clientul este un stat, armata sau aparatul de securitate. O scrisoare deschisă semnată de angajați de la Google și OpenAI, în sprijinul poziției Anthropic, arată că tensiunile nu sunt doar între companii, ci și în interiorul lor.

Recent, OpenAI a anunțat că va revizui termenii acordului cu Pentagonul, ca urmare a îngrijorărilor exprimate de angajați și public.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 16:28