Războiul AI: Companiile americane acuză firmele chineze de furt de date prin „distilare”
Competiția aprigă pentru supremația în domeniul inteligenței artificiale (AI) dintre Statele Unite și China a atins noi cote. Firmele americane de tehnologie acuză companii chineze de furtul de date și cercetare, prin tehnici sofisticate de „distilare AI”. Acuzațiile, care includ folosirea de conturi false și camuflarea accesărilor, scot la iveală o luptă acerbă pentru dominație tehnologică, cu implicații strategice considerabile.
Cum funcționează „distilarea AI” și de ce este controversată
Tehnica de „distilare AI”, uneori numită „atac de extracție de model”, presupune interogarea repetată a unui model AI puternic, pentru a genera un volum vast de răspunsuri. Aceste date sunt apoi folosite pentru a instrui un model nou, mai mic, mai rapid și mai puțin costisitor. Practic, modelul original este „furat”, iar rezultatele sale devin material didactic pentru noul sistem. Această metodă poate accelera dezvoltarea unui sistem concurent, reducând costurile inițiale.
Companiile americane, însă, subliniază că distilarea este o practică acceptabilă atunci când este realizată intern, pentru optimizarea propriilor produse. Problemele apar atunci când această tehnică este folosită pentru a copia, fără permisiunea dezvoltatorului, performanțele unui model creat de o altă companie. Practic, în contextul concurenței acerbe, distilarea devine o armă, oferind acces neautorizat la informații valoroase și avantaje competitive neloiale.
Acuzații detaliate și tentative de eludare a restricțiilor
Printre companiile acuzate se numără DeepSeek, MiniMax și Moonshot AI, care ar fi folosit metoda de distilare. Anthropic, una dintre companiile care au depus acuzații, susține că firmele chineze au inițiat peste 16 milioane de interacțiuni cu chatbot-ul său, Claude. S-ar fi folosit aproximativ 24.000 de conturi false pentru a eluda restricțiile de utilizare. Traficul de date ar fi fost redirecționat prin servere proxy pentru a disimula originea accesărilor, în condițiile în care Claude nu este disponibil oficial în China.
OpenAI, o altă companie afectată, a informat oficialitățile americane despre tentative similare de replicare a modelelor sale avansate. Aceasta a avertizat cu privire la metodele tot mai elaborate utilizate de anumite companii pentru a-și masca operațiunile. Raportul indică faptul că unele conturi asociate DeepSeek au cerut modelului Claude să explice „pas cu pas” raționamentul din spatele răspunsurilor sale, în scopul generării de date pentru antrenarea altor modele.
Implicații de securitate și viitorul AI
Anthropic avertizează că modelele dezvoltate prin distilare neautorizată ar putea să nu încorporeze măsurile de siguranță adecvate. Acest lucru ar putea amplifica riscurile legate de securitatea cibernetică sau de utilizare abuzivă a inteligenței artificiale. Pe de altă parte, Google susține că astfel de atacuri nu afectează utilizatorii obișnuiți și, mai degrabă, reprezintă o încălcare a proprietății intelectuale. Disputa survine într-un context în care rivalitatea dintre SUA și China în domeniul inteligenței artificiale se intensifică, cu implicații economice, dar și strategice majore. Supremația în AI influențează industriile viitorului, aplicațiile militare și securitatea națională.
Anthropic a implementat sisteme de detecție pentru a identifica aceste campanii, dar recunoaște că nicio companie nu poate gestiona singură fenomenul, într-un mediu pe care mulți analiști îl descriu deja ca fiind un „război rece” al tehnologiei.