Anthropic dă în judecată Departamentul Apărării din SUA, acuzând măsuri abuzive
Compania de inteligență artificială Anthropic a dat în judecată Departamentul Apărării din SUA (DoD), contestând o decizie a guvernului american de a o cataloga drept un „risc pentru lanțul de aprovizionare”. Cele două procese, intentate luni, vizează decizia Pentagonului de a include compania pe o listă neagră, măsură considerată de Anthropic drept ilegală și o încălcare a drepturilor sale constituționale. Disputa dintre cele două părți durează de luni de zile, având ca punct central încercările companiei de a implementa măsuri de siguranță privind utilizarea modelelor sale de AI, în special în ceea ce privește supravegherea în masă sau dezvoltarea de arme letale autonome.
Procesele au fost intentate la tribunalul districtual din nordul Californiei și la Curtea de Apel a SUA pentru Districtul Columbia. Decizia Pentagonului de a desemna compania ca risc pentru lanțul de aprovizionare a fost emisă săptămâna trecută, fiind prima dată când acest instrument de sancționare a fost utilizat împotriva unei companii americane. Anthropic a anunțat anterior că va contesta atât desemnarea, cât și solicitarea guvernului ca firmele care desfășoară activități cu acesta să rupă legăturile cu compania de AI. O astfel de măsură ar putea afecta grav modelul de afaceri al Anthropic.
Compania acuză o sancționare pentru neconformare ideologică
În acțiunea sa în instanță, Anthropic susține că guvernul american, sub administrația Trump, o pedepsește pentru refuzul de a se conforma „cerințelor ideologice ale statului”. Compania consideră această acțiune ca o încălcare a libertății de exprimare protejate de lege și o tentativă de a o sancționa pentru neconformitate. „Aceste acțiuni sunt fără precedent și ilegale. Constituția nu permite guvernului să își exercite puterea enormă pentru a pedepsi o companie pentru discursul său protejat”, a menționat Anthropic în documentul depus la tribunalul din California.
Modelul de inteligență artificială al Anthropic, numit Claude, a fost integrat în mod profund în activitățile Departamentului Apărării în ultimul an. Până de curând, Claude era singurul model de AI aprobat pentru utilizare în sisteme clasificate. Conform informațiilor disponibile, Departamentul Apărării a folosit extensiv această tehnologie în operațiunile sale militare, inclusiv pentru a determina țintele atacurilor cu rachete în conflictul din Iran. În procesul intentat, Anthropic a subliniat angajamentul său de a furniza AI pentru securitatea națională.
Continuarea dialogului cu guvernul rămâne o prioritate
Compania a precizat în instanța din California că a colaborat anterior cu Departamentul Apărării pentru a modifica sistemele sale, în funcție de cazurile de utilizare specifice. „Solicitarea revizuirii judiciare nu schimbă angajamentul nostru de lungă durată de a valorifica AI pentru a ne proteja securitatea națională, dar acesta este un pas necesar pentru a ne proteja afacerea, clienții și partenerii”, a declarat un purtător de cuvânt al Anthropic. „Vom continua să urmăm orice cale spre o soluționare, inclusiv dialogul cu guvernul.”
Anthropic susține că acțiunile punitive ale administrației Trump și ale Pentagonului „dăunează ireparabil” companiei. Cu toate acestea, CEO-ul Anthropic, Dario Amodei, afirma săptămâna trecută că „impactul acestei desemnări este destul de mic” și că firma „va fi bine”. În documentul depus, compania afirmă că autoritățile „caută să distrugă valoarea economică creată de una dintre companiile private cu cea mai rapidă creștere din lume, care este lider în dezvoltarea responsabilă a unei tehnologii emergente de o importanță vitală pentru Națiunea noastră”.
Departamentul Apărării nu a emis încă o declarație oficială cu privire la procesul intentat de Anthropic.