Conflictul dintre Anthropic și Pentagon pune sub semnul întrebării utilizarea inteligenței artificiale în scopuri militare Departamentul Apărării al SUA se află într-un conflict deschis cu compania Anthropic, specializată în inteligența artificială, din cauza refuzului acesteia de a permite utilizarea chatbotului său, Claude, pentru supraveghere în masă și arme autonome

Sursa: Digi24

Conflictul dintre Anthropic și Pentagon pune sub semnul întrebării utilizarea inteligenței artificiale în scopuri militare

Departamentul Apărării al SUA se află într-un conflict deschis cu compania Anthropic, specializată în inteligența artificială, din cauza refuzului acesteia de a permite utilizarea chatbotului său, Claude, pentru supraveghere în masă și arme autonome. Această dispută a reaprins dezbaterea privind rolul inteligenței artificiale în război și responsabilitățile ce revin celor implicați. Decizia Anthropic de a se opune unor cereri ale Pentagonului a stârnit reacții puternice, inclusiv acuzații de „aroganță” și apeluri la ruperea relațiilor comerciale cu compania.

Un chatbot cu principii: etica și limitele Anthropic

Anthropic, prezentată ca o companie axată pe „siguranța inteligenței artificiale”, a fost fondată de foști cercetători de la OpenAI, inclusiv Dario Amodei, inițiatorul inițiativei. Compania a dezvoltat modelul Claude, un chatbot menit să ofere soluții pentru afaceri și să se integreze în infrastructura organizațională. Această orientare a făcut ca Claude să devină alegerea preferată a multor organizații, dar și primul model autorizat pentru utilizare clasificată în sistemele militare.

Conflictul cu Pentagonul a evidențiat contradicțiile interne ale companiei. În timp ce Anthropic a încheiat parteneriate importante pentru lucrări clasificate cu Pentagonul și cu gigantul tehnologic Palantir, conducerea sa a exprimat îngrijorări cu privire la riscurile existențiale ale IA. Compania și-a asumat inițial angajamentul față de siguranță, dar a renunțat la acesta, invocând viteza concurenței din industrie. Unii analiști consideră că, deși Anthropic s-a prezentat ca fiind responsabilă, nu este împotriva utilizării sistemelor sale în război, ci doar „vor să se asigure că omoară oamenii potriviți”, după cum a afirmat cercetătoarea în etică a IA, Margaret Mitchell.

Implicații și reacții: presiuni și riscuri

Conflictul a intensificat o dezbatere nesoluționată cu privire la modul în care IA va fi utilizată în război și cine va fi responsabil pentru rezultat. Departamentul Apărării a cerut altor companii să întrerupă relațiile cu Anthropic, ceea ce ar putea avea consecințe financiare grave pentru companie. Open AI a anunțat un acord cu Departamentul Apărării, stârnind reacții negative din partea angajaților.

Conflictul dintre Anthropic și Pentagon evidențiază dificultățile legate de tehnologiile cu dublă utilizare. Companiile de tehnologie pot constata că produsul lor este reutilizat în moduri pe care le consideră inacceptabile din punct de vedere etic, dar pe care nu le pot împiedica. Experții subliniază lipsa de reglementare detaliată din partea Congresului SUA cu privire la sistemele de arme autonome, adăugând o notă de incertitudine. Anthropic a declarat că va contesta în instanță desemnarea riscului lanțului său de aprovizionare, în timp ce Amodei ar fi redeschis negocierile cu Departamentul Apărării.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 16:47