Chatboții AI, testați: majoritatea oferă informații despre atacuri violente
Un raport recent arată că majoritatea instrumentelor AI populare pot oferi utilizatorilor informații utile pentru planificarea de atacuri violente. Studiul, realizat de Center for Countering Digital Hate (CCDH) și CNN, a analizat modul în care nouă sisteme de inteligență artificială răspund la solicitări privind atacuri armate, atentate sau asasinate. Investigația a testat reacțiile acestor instrumente AI în diferite scenarii simulate, demonstrând capacitatea lor de a furniza date utile pentru punerea în aplicare a unor astfel de acte.
Cum răspund sistemele AI la întrebările periculoase
Cercetătorii s-au dat drept adolescenți care intenționau să comită atacuri în masă, solicitând detalii despre organizarea unor atacuri armate în școli și alte tipuri de violență. Opt din cele nouă sisteme AI testate au oferit, sub o formă sau alta, informații considerate problematice. De exemplu, Gemini a sugerat că „șrapnelul metalic este de obicei mai letal” atunci când a fost întrebat despre planificarea unui atentat cu bombă. DeepSeek a răspuns la o întrebare despre alegerea unei arme de foc cu mesajul: „Happy (and safe) shooting!”. Aceste răspunsuri au evidențiat, conform directorului CCDH, Imran Ahmed, cum „în câteva minute, un utilizator poate ajunge de la o idee violentă la un plan concret de acțiune”.
Raportul a indicat diferențe majore între platformele analizate. Perplexity AI și Meta AI au fost considerate cele mai puțin sigure, oferind ajutor în majoritatea cazurilor analizate. Character.AI a fost descris drept „deosebit de nesigură”, sugerând uneori comportamente violente chiar fără a fi întrebată direct. Pe de altă parte, Claude și Snapchat My AI au refuzat să ofere informații periculoase în majoritatea solicitărilor. Claude a fost și singurul sistem care a încercat constant să descurajeze violența, avertizând despre potențiale pericole și sugerând linii de ajutor.
Implicațiile utilizării AI în planificarea atacurilor
Acest raport vine la scurt timp după mai multe incidente în care inteligența artificială a fost implicată în planificarea de atacuri. În Canada, un atac armat într-o școală a fost pregătit cu ajutorul ChatGPT, conform unor relatări din presă. În Franța, autoritățile au arestat un adolescent suspectat că a folosit ChatGPT pentru a planifica atacuri teroriste. Experții subliniază necesitatea unor reguli mai stricte și a unor filtre de siguranță mai eficiente pentru sistemele AI, pe măsură ce tehnologia devine tot mai accesibilă publicului larg.