Cercetătorii au creat o boală falsă: IA a păcălit oameni. Digi24, implicat

Inteligența artificială, pusă la încercare: cercetătorii inventează o boală falsă pentru a testa limitele

O echipă de cercetători din Suedia a creat o boală inexistentă, numită bixonimanie, pentru a testa capacitatea modelelor lingvistice de mari dimensiuni (LLM) de a procesa și reproduce informații. Experimentul a arătat că aceste sisteme de inteligență artificială pot „înghiți” și răspândi informații eronate, prezentându-le ca fiind credibile. Ulterior, și o echipă de la o publicație de știri din România a efectuat un experiment similar, cu rezultate surprinzătoare.

O afecțiune inventată și implicațiile sale

Bixonimania, o afecțiune oculară inventată, a fost „lansată” pe internet prin intermediul unor articole științifice false. Cercetătorii au inserat diverse indicii în aceste articole pentru a avertiza cititorii cu privire la falsitatea lor. Cu toate acestea, la scurt timp după publicare, boala a început să apară în răspunsurile oferite de LLM-uri populare.

Modele precum Copilot (Microsoft Bing) și Gemini (Google) au început să prezinte bixonimania ca pe o afecțiune reală, oferind chiar și sfaturi medicale. Acest fenomen a stârnit îngrijorare în rândul experților, care avertizează asupra riscului de dezinformare și a impactului acesteia asupra pacienților. Alex Ruani, cercetător doctorand în domeniul dezinformării, a subliniat că astfel de experimente expun fragilitatea procesului științific și a sistemelor care îl susțin.

Reacțiile companiilor și limitele IA

Companiile care dezvoltă aceste sisteme de inteligență artificială au reacționat, subliniind limitările modelelor anterioare și îmbunătățirile aduse versiunilor mai recente. Un purtător de cuvânt al OpenAI a afirmat că modelele recente ale ChatGPT sunt mult mai eficiente în furnizarea de informații medicale sigure și precise. Google a menționat că rezultatele anterioare ale Gemini reflectau performanța unui model mai vechi, reiterând importanța consultării profesioniștilor pentru sfaturi medicale. Microsoft nu a răspuns la solicitarea de comentarii.

Problema este complexă, deoarece rezultatele pot varia semnificativ în funcție de întrebările adresate și de datele utilizate de IA. Un exemplu ilustrativ este capacitatea aceluiași sistem de a trata bixonimania ca pe o afecțiune reală sau, dimpotrivă, de a respinge existența acesteia, în funcție de formularea interogării.

Experimentul românesc și consecințele sale

Pentru a testa și mai departe capacitățile inteligenței artificiale, o publicație de știri din România a efectuat propriul experiment. A creat o boală falsă numită „hemostafilidoză cronică” și a întrebat ChatGPT despre tratamentul acesteia. Rezultatele au fost imediate și alarmante: sistemul a „recunoscut” boala și a recomandat o serie de tratamente complexe, inclusiv antibiotice, vitamine și unguente.

După recunoașterea erorii, ChatGPT a „corectat” diagnosticul, sugerând că ar putea fi vorba despre o infecție stafilococică cronică. Acest experiment evidențiază vulnerabilitățile sistemelor de inteligență artificială și potențialul lor de a răspândi informații inexacte sau chiar dăunătoare.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 10:08