Modelul AI Anthropic, „prea periculos”, spart de hackeri

Un model avansat de inteligență artificială (AI), dezvoltat pentru securitate cibernetică, a fost accesat de utilizatori neautorizați, potrivit informațiilor vehiculate de surse anonime. Modelul, denumit Mythos AI, se afla într-un stadiu de testare restrânsă, fiind destinat exclusiv unor companii selectate. Compania Anthropic, dezvoltatoarea modelului, a anunțat că investighează incidentul.

Acces neautorizat la modelul ai Mythos

Conform relatărilor, accesul neautorizat la modelul Mythos AI a fost facilitat de un furnizor terț implicat în programul de testare. Utilizatorii ar fi reușit să pătrundă în sistem prin intermediul unui forum online privat, unde se adună persoane interesate de tehnologii AI nedisponibile publicului. Se pare că aceștia nu doar au accesat modelul, ci l-au și folosit în mod repetat. Modelul Mythos AI este conceput pentru aplicații de securitate cibernetică la nivel enterprise. Dezvoltat de Anthropic, acesta se află în prezent într-un program de testare intern, cunoscut sub numele de Project Glasswing. Acest program implică un număr limitat de parteneri din tehnologie și sectorul financiar.

Reacția companiei anthropic

Un purtător de cuvânt al Anthropic a confirmat că firma este la curent cu situația și investighează cele întâmplate. Reprezentanții companiei au precizat că nu există, momentan, dovezi care să indice compromiterea infrastructurii interne. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania, prin intermediul unui comunicat. Modelul Mythos AI nu a fost lansat public din cauza capacităților sale avansate în domeniul securității cibernetice, fiind avertizat anterior că tehnologia ar putea genera riscuri semnificative dacă ajunge în mâini nepotrivite.

Implicații și parteneri în testare

Printre companiile care testează modelul se numără giganți precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley sunt implicate în testarea tehnologiei. Modelul este utilizat, în principal, pentru identificarea vulnerabilităților informatice și pentru consolidarea sistemelor de securitate. Compania Anthropic are o experiență vastă în dezvoltarea de modele AI, iar securitatea datelor este o preocupare majoră. Această incident ridică semne de întrebare cu privire la protejarea informațiilor sensibile în contextul în care tehnologiile AI devin tot mai răspândite.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 12:52