Ruptură între Washington și Anthropic din cauza limitelor impuse inteligenței artificiale Administrația Trump a ordonat, în februarie 2026, agențiilor federale să oprească utilizarea tehnologiei Anthropic, o companie de frunte în domeniul inteligenței artificiale (AI)

Ruptură între Washington și Anthropic din cauza limitelor impuse inteligenței artificiale

Administrația Trump a ordonat, în februarie 2026, agențiilor federale să oprească utilizarea tehnologiei Anthropic, o companie de frunte în domeniul inteligenței artificiale (AI). Decizia, descrisă de Pentagon ca o măsură menită să protejeze lanțul de aprovizionare, a fost rezultatul unui conflict de săptămâni. Cauza a fost refuzul Anthropic de a renunța la anumite măsuri de siguranță în sistemele sale de AI, în special cele care ar fi împiedicat utilizarea modelelor sale pentru direcționarea autonomă a armelor și supraveghere internă.

Această dispută a scos la iveală tensiunile dintre cerințele militare și preocupările etice legate de utilizarea AI. Anthropic a argumentat că aceste limite sunt esențiale pentru a separa utilizările legitime ale AI de scenariile în care tehnologia ar putea fi integrată în infrastructuri militare sau de supraveghere excesivă. Administrația Trump și Pentagonul au interpretat, însă, aceste restricții ca pe o încercare a companiei de a dicta regulile operaționale ale armatei.

Cum a continuat utilizarea Claude chiar și după interdicție

Odată cu anunțul interdicției, instrumentele Anthropic au continuat să fie folosite de armata americană. The Wall Street Journal a raportat, citând surse oficiale, că modelul lingvistic Claude a fost utilizat în contextul loviturilor asupra Iranului, la scurt timp după comunicarea publică a interdicției. Modelele AI au fost folosite pentru sarcini precum analiză de informații, sprijin în selectarea țintelor și simulări de scenarii operaționale.

Această aparentă contradicție scoate în evidență dependența de instrumentele software considerate simultan problematice politic. Pentagonul, conform surselor, insista ca marile companii de AI să își extindă modelele pe rețelele clasificate, cu cât mai puține restricții, pentru a le putea folosi rapid în medii sensibile. În momentul interdicției, Anthropic era singurul furnizor de modele lingvistice mari prezent pe anumite rețele clasificate ale Pentagonului. Retragerea rapidă a lui Claude nu era, prin urmare, realistă.

Viitorul AI în context militar

După decizia de întrerupere a colaborării cu Anthropic, Pentagonul a început să își diversifice parteneriatele în domeniul AI. OpenAI a încheiat deja un acord pentru implementarea modelelor sale pe rețele clasificate ale Departamentului de Război. xAI, compania lui Elon Musk, a fost, de asemenea, adusă în discuție. Departamentul de Război are contracte de până la 200 de milioane de dolari cu mai multe companii, inclusiv OpenAI, Anthropic și Google.

OpenAI a detaliat un set de „linii roșii” pentru contractul cu Pentagonul, inclusiv interdicții privind supravegherea internă în masă și deciziile critice complet automatizate. Anthropic, la rândul său, a anunțat că va contesta în instanță desemnarea sa drept risc pentru lanțul de aprovizionare.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 14:56