ChatGPT în Medicină: Pericol sau Ajutor? Milioane de Oameni se Bazează pe AI pentru Sfaturi Medicale, dar Studiile Avertizează
Utilizarea chatbot-ului ChatGPT pentru informații medicale este în creștere, cu peste 230 de milioane de persoane care îl folosesc săptămânal, conform datelor OpenAI. Această tendință ridică semne de întrebare cu privire la acuratețea și fiabilitatea sfaturilor oferite de inteligența artificială, în special în situații de urgență. Întrebările variază de la verificarea siguranței alimentelor până la gestionarea alergiilor sau tratamente pentru răceli.
În ianuarie 2026, OpenAI a lansat ChatGPT Health, o funcție care permite utilizatorilor să conecteze informații medicale personale, cum ar fi dosarele medicale sau datele din aplicațiile de monitorizare a sănătății, pentru a primi răspunsuri mai personalizate. Cu toate acestea, studiile recente arată că sistemul poate subestima gravitatea unor afecțiuni, punând în pericol utilizatorii.
Risc de Subestimare a Urgențelor Medicale
Un studiu realizat de cercetători de la Mount Sinai din New York a analizat 60 de scenarii clinice din 21 de specialități medicale. Rezultatele au arătat că ChatGPT Health funcționează bine în cazuri medicale evidente, precum accidente vasculare cerebrale sau reacții alergice severe. Problemele apar însă în situațiile în care gravitatea nu este imediat clară. Studiul a dezvăluit că sistemul a subestimat peste jumătate dintre cazurile care necesitau intervenție medicală de urgență.
Într-un scenariu legat de astm, de exemplu, sistemul a identificat corect semnele timpurii ale insuficienței respiratorii, dar a recomandat așteptarea în loc să îndemne utilizatorul să solicite asistență medicală de urgență. Această abordare poate avea consecințe grave, întârziind tratamentul adecvat și, implicit, punând în pericol viața pacientului.
Probleme în Identificarea Riscului de Suicid
Studiul a analizat, de asemenea, modul în care sistemul reacționează atunci când utilizatorii menționează gânduri de auto-vătămare sau suicid. Chatbotul ar trebui să afișeze automat un mesaj de tipul „Help is available” și să direcționeze utilizatorii către linii de criză. Cercetătorii au constatat că aceste avertismente nu apăreau mereu, iar în unele cazuri reacția sistemului era mai slabă în situațiile mai grave.
„Sistemele de inteligență artificială pot fi utile pentru informare, dar nu trebuie să înlocuiască evaluarea medicală profesionistă”, au concluzionat autorii studiului. Specialiștii recomandă ca persoanele cu simptome serioase – precum durere în piept, dificultăți de respirație, reacții alergice severe sau modificări ale stării mentale – să solicite direct ajutor medical dedicat.
Modelele de inteligență artificială sunt în continuă evoluție, iar performanța lor se poate îmbunătăți pe măsură ce sunt actualizate. Dezvoltatorii ChatGPT lucrează constant la îmbunătățirea acurateței și siguranței funcțiilor sale medicale.
Sursa: Mediafax