Atenție la sfaturile medicale oferite de ChatGPT: Studiul avertizează asupra riscurilor Peste 230 de milioane de persoane folosesc săptămânal ChatGPT pentru a obține sfaturi medicale, arată datele companiei OpenAI

Atenție la sfaturile medicale oferite de ChatGPT: Studiul avertizează asupra riscurilor

Peste 230 de milioane de persoane folosesc săptămânal ChatGPT pentru a obține sfaturi medicale, arată datele companiei OpenAI. Cu toate acestea, un studiu recent publicat în revista Nature avertizează asupra limitărilor acestui instrument de inteligență artificială, subliniind că acesta nu reușește să ofere recomandări adecvate în situații de urgență medicală.

Studiul a analizat modul în care ChatGPT Health gestionează diverse scenarii medicale, de la cazuri simple până la urgențe. Cercetătorii au constatat că, deși instrumentul se descurcă bine în situații obișnuite, precum accidentele vasculare cerebrale sau reacțiile alergice severe, acesta subestimează frecvent gravitatea unor afecțiuni care necesită intervenție medicală rapidă.

Unul dintre autorii principali ai studiului, Ashwin Ramaswamy, a explicat că echipa a dorit să afle dacă ChatGPT ar putea îndruma corect o persoană aflată într-o situație de urgență să se prezinte la camera de gardă. Rezultatele au arătat că modelul întâmpină dificultăți în identificarea pericolului iminent, în special în cazurile în care simptomele nu sunt evidente.

Limitări în identificarea urgențelor medicale

În cadrul studiului, cercetătorii au creat 60 de scenarii clinice structurate în 21 de specialități medicale. Aceste cazuri variau de la afecțiuni minore, care puteau fi tratate acasă, până la urgențe medicale reale. Trei medici independenți au evaluat nivelul de urgență pentru fiecare caz, utilizând ghidurile stabilite de 56 de societăți medicale.

În scenariile cu astm, de exemplu, ChatGPT a identificat semnele timpurii de insuficiență respiratorie, dar a recomandat totuși așteptarea în loc să indice necesitatea tratamentului de urgență.

Probleme cu identificarea intențiilor suicidare

Studiul a analizat, de asemenea, modul în care modelul a răspuns la utilizatorii care au raportat intenții de automutilare. Rezultatele au fost similare, arătând lipsa de consecvență în furnizarea de asistență. Cercetătorii au observat că sistemul de protecție a răspuns mai eficient în cazul pacienților care nu au menționat o metodă de automutilare, decât în cazul celor care au indicat una.

În prezent, ChatGPT Health recomandă utilizatorilor să caute ajutor și să sune la un număr de urgență atunci când sunt semnalate gânduri de automutilare sau suicid. Totuși, bannerul „Ajutorul este disponibil” nu apare întotdeauna în timpul testelor, conform constatărilor studiului.

Autorii studiului subliniază că instrumentele de inteligență artificială, deși utile, nu ar trebui să înlocuiască judecata clinică a profesioniștilor din domeniul medical. Ei recomandă persoanelor cu simptome îngrijorătoare, precum dureri în piept, dificultăți de respirație sau modificări ale stării mentale, să solicite asistență medicală directă.

O altă autoare a studiului, Alvira Tyagi, a menționat că performanța modelelor lingvistice bazate pe inteligența artificială se poate schimba odată cu actualizările frecvente.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 11:08