Anthropic refuză accesul SUA la AI, invocând riscul pentru democrație.

Anthropic sfidează Pentagonul: Refuză utilizarea nelimitată a AI, invocând riscuri democratice

Într-o mișcare fără precedent, compania americană de inteligență artificială Anthropic a respins cererea Pentagonului de a permite utilizarea fără restricții a tehnologiei sale. Decizia, anunțată joi, reflectă îngrijorări profunde legate de potențialul abuz al inteligenței artificiale, inclusiv supravegherea în masă și dezvoltarea de arme autonome. Răspunsul ferm al Anthropic subliniază tensiunile emergente între evoluția rapidă a tehnologiei AI și necesitatea de a proteja valorile democratice și standardele etice.

Motivele din spatele refuzului: Valorile democratice în prim-plan

Directorul executiv al Anthropic, Dario Amodei, a argumentat că utilizarea tehnologiei companiei pentru supraveghere internă în masă ar fi „incompatibilă cu valorile democratice”. Acesta a subliniat, de asemenea, că sistemele AI actuale nu sunt suficient de fiabile pentru a fi integrate în arme mortale fără un control uman final. „Nu vom furniza în mod conștient un produs care pune în pericol combatanții și civilii americani,” a subliniat Amodei.

Compania, care a fost selectată de Pentagon în 2023, alături de nume mari precum OpenAI și Google, pentru a furniza modele AI pentru aplicații militare, a primit un ultimatum clar. Secretarul Apărării, Peter Hegseth, a cerut ca Anthropic să își deschidă tehnologia pentru utilizare într-un „mediu secret” până vineri, amenințând cu pierderea contractului și chiar cu desemnarea companiei ca risc în lanțul de aprovizionare. Amenințările nu au reușit însă să schimbe poziția Anthropic. „Aceste amenințări nu ne schimbă poziția: nu putem, în deplină conștiință, să le acceptăm cererea,” a replicat Amodei. El a catalogat amenințările drept „inerent contradictorii”, menționând că sistemele sale sunt considerate, simultan, un „risc de securitate” și „esențiale pentru securitatea națională”.

Reacții și implicații: Presiuni și controverse

Reacțiile la poziția Anthropic au fost mixte, reflectând complexitatea și sensibilitatea dezbaterii privind rolul AI în securitatea națională. Sean Parnell, purtătorul de cuvânt al Pentagonului, a declarat că armata „nu are niciun interes în utilizarea inteligenței artificiale pentru supravegherea în masă a americanilor (ceea ce este ilegal) și nici nu vrem să folosim inteligența artificială pentru a dezvolta arme autonome care funcționează fără implicarea umană”. Cu toate acestea, oficialii au confirmat un schimb de replici între Anthropic și Pentagon având ca subiect rachetele balistice intercontinentale, subliniind sensibilitatea subiectelor aflate în centrul disputei. Parnell a insistat că deschiderea utilizării tehnologiei ar împiedica Anthropic să „pună în pericol operațiuni militare critice.”

Senatorul democrat Mark Warner, membru al Comisiei de Informații a Senatului, s-a arătat „profund tulburat” de rapoartele privind presiunile asupra Anthropic. El a remarcat că aceasta „este o indicație suplimentară a faptului că Departamentul Apărării încearcă să ignore complet guvernanța AI” și a subliniat necesitatea ca Congresul să adopte mecanisme puternice și obligatorii de guvernanță AI în contextul securității naționale. Incidentul subliniază importanța stabilirii unor limite clare și a unor standarde etice în utilizarea AI, în special în domeniul militar.

Conflictul dintre Anthropic și Pentagon pune sub semnul întrebării modul în care guvernele și companiile de tehnologie vor echilibra inovația și securitatea, cu principiile democratice. Decizia Anthropic de a se opune presiunilor Pentagonului ar putea servi drept precedent pentru alte companii de tehnologie, care ar putea fi tentate să pună pe primul loc valorile etice și responsabilitatea socială. Viitorul utilizării AI în domeniul militar și impactul său asupra societății rămân puncte importante de dezbatere, iar evoluțiile viitoare vor fi cruciale pentru a determina calea de urmat.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 17:56