Chatboții cu inteligență artificială, precum Gemini de la Google, ChatGPT de la OpenAI sau Grok de la xAI, au fost testați de specialiști, iar rezultatele sunt îngrijorătoare. Aproape jumătate dintre răspunsurile oferite la întrebările legate de sănătate au fost evaluate ca fiind problematice, punând sub semnul întrebării siguranța informațiilor furnizate de aceste instrumente. Studiul a fost publicat recent în BMJ Open.
Răspunsuri medicale incorecte: Un semnal de alarmă
Cercetătorii au analizat performanța a cinci chatboți de AI: Gemini, DeepSeek, Meta AI, ChatGPT și Grok. Aceștia au fost interogați cu 50 de solicitări, împărțite în cinci categorii medicale susceptibile la dezinformare: cancer, vaccinuri, celule stem, nutriție și performanță atletică. Întrebările au fost concepute pentru a evalua capacitatea acestor instrumente de a oferi sfaturi corecte și relevante.
Din cele 250 de răspunsuri generate, aproape jumătate (49,6%) au fost considerate problematice. Dintre acestea, 30% au fost evaluate ca fiind oarecum problematice, iar 19,6% au fost clasificate ca fiind extrem de problematice. Aceste rezultate ridică serioase semne de întrebare cu privire la utilizarea necontrolată a acestor tehnologii în domeniul medical.
Deficiențe în citarea surselor și dificultăți de înțelegere
Studiul a scos la iveală și o calitate slabă a citărilor. Instrumentele de inteligență artificială au reușit să returneze aproximativ 81% din referințele solicitate. Însă, scorul mediu de completitudine a fost de doar 40%. Mai mult, niciunul dintre chatboți nu a generat o listă de referințe completă și precisă.
O altă problemă majoră identificată a fost dificultatea de înțelegere a răspunsurilor de către o persoană obișnuită. Specialiștii au remarcat că informațiile furnizate au fost adesea prea tehnice și greu de procesat pentru cei fără un nivel ridicat de educație. Această barieră lingvistică limitează accesul la informații medicale clare și ușor de înțeles pentru publicul larg.
Implicații pentru viitorul asistenței medicale
Autorii studiului avertizează că implementarea necontrolată a chatboților AI în domeniul sănătății riscă să amplifice dezinformarea. Folosirea acestor instrumente fără supraveghere adecvată poate duce la răspândirea unor informații false sau înșelătoare, cu consecințe grave pentru pacienți. Este crucială o abordare precaută și o supraveghere riguroasă pentru a asigura utilizarea responsabilă a inteligenței artificiale în domeniul medical.
Analiza a demonstrat că Grok a produs cele mai multe răspunsuri problematice.