Conflict la vârful inteligenței artificiale: Pentagonul și Anthropic, în dezacord Secretarul american al Apărării, Pete Hegseth, l-a convocat pe Dario Amodei, CEO-ul start-up-ului Anthropic, specializat în inteligență artificială

Conflict la vârful inteligenței artificiale: Pentagonul și Anthropic, în dezacord

Secretarul american al Apărării, Pete Hegseth, l-a convocat pe Dario Amodei, CEO-ul start-up-ului Anthropic, specializat în inteligență artificială. Motivul acestei întâlniri este dezacordul privind utilizarea tehnologiei AI dezvoltate de companie. Pentagonul dorește o mai mare flexibilitate în aplicarea modelelor AI, în timp ce Anthropic, fondată de foști angajați OpenAI, se opune utilizării AI în anumite scopuri. Discuțiile au loc pe fondul presiunii crescânde asupra companiilor de tehnologie, pentru a alinia dezvoltarea AI la obiectivele de securitate națională.

Restricții impuse de Anthropic și presiunile Pentagonului

Compania Anthropic refuză să permită utilizarea modelului său AI, Claude, în două scenarii specifice: supravegherea în masă a populațiilor și automatizarea atacurilor letale. Conform unei surse apropiate situației, Pentagonul le-a cerut furnizorilor săi de AI să ridice restricțiile privind utilizarea modelelor lor, extinzând posibilele utilizări. Departamentul Apărării, nemulțumit de poziția Anthropic, a amenințat cu rezilierea contractelor existente și chiar cu includerea companiei pe lista companiilor care prezintă „un risc pentru aprovizionare”. Această măsură ar impune restricții severe asupra contractelor Anthropic cu guvernul american.

Lista, în prezent, include doar companii străine, cum ar fi Huawei din China și Kaspersky din Rusia. Presiunea exercitată de Pentagon reflectă importanța strategică a tehnologiei AI în domeniul militar și de securitate. O potențială ruptură între Pentagon și Anthropic ar avea consecințe semnificative pentru ambele părți. Anthropic ar putea pierde contractul de 200 de milioane de dolari semnat în iunie, precum și alte oportunități de afaceri. Departamentul Apărării ar pierde accesul la modelul Claude, singurul model AI utilizat în prezent pentru operațiuni clasificate.

Poziția companiei și implicațiile pentru securitatea națională

Un purtător de cuvânt al Anthropic a declarat că „Anthropic se angajează să sprijine securitatea națională a SUA prin intermediul inteligenței artificiale”, menționând „discuții productive și de bună-credință” cu secretarul Apărării. Fondată în 2021, compania a adoptat o abordare etică în dezvoltarea AI, publicând un document care detaliază instrucțiunile date modelului Claude. Aceste instrucțiuni vizează, în special, „prevenirea acțiunilor care prezintă pericol necorespunzător”.

Conform informațiilor, secretarul Apărării intenționează să-i transmită lui Dario Amodei un ultimatum.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 08:21