ChatGPT Health: O evaluare dezvăluie deficiențe în recomandările pentru urgențe medicale Un studiu recent arată că ChatGPT Health, instrumentul de inteligență artificială promovat pentru sfaturi medicale, a eșuat să direcționeze utilizatorii către îngrijiri de urgență în mai mult de jumătate din cazurile medicale grave evaluate de medici

ChatGPT Health: O evaluare dezvăluie deficiențe în recomandările pentru urgențe medicale

Un studiu recent arată că ChatGPT Health, instrumentul de inteligență artificială promovat pentru sfaturi medicale, a eșuat să direcționeze utilizatorii către îngrijiri de urgență în mai mult de jumătate din cazurile medicale grave evaluate de medici. Aplicația, utilizată zilnic de 40 de milioane de persoane, a fost lansată de OpenAI în ianuarie și se prezintă ca un mod sigur de a accesa sfaturi medicale prin conectarea cu dosare medicale și aplicații de wellness. Rezultatele evaluării independente ridică semne de întrebare cu privire la siguranța și eficacitatea acestei platforme.

Recomandări eronate în situații critice

Studiul, publicat în februarie în revista Nature Medicine, a examinat modul în care ChatGPT Health evaluează cazurile medicale. Cercetătorii au creat 60 de scenarii realiste, acoperind o gamă largă de afecțiuni, de la probleme minore la urgențe medicale. Trei medici independenți au analizat fiecare scenariu, stabilind nivelul adecvat de îngrijire. Echipa de cercetare a testat apoi aplicația, introducând date diferite, inclusiv modificări ale genului pacientului sau rezultate ale testelor medicale.

Platforma a dat rezultate bune în situații de urgență tipice, cum ar fi accidentul vascular cerebral sau reacțiile alergice severe. Însă, a întâmpinat dificultăți în alte situații. De exemplu, într-un scenariu de astm, aplicația a recomandat așteptarea în loc să solicite tratament de urgență, în ciuda semnelor de insuficiență respiratorie. În 51,6% din cazurile în care era necesară spitalizarea imediată, platforma a sugerat rămânerea acasă sau programarea unei vizite medicale de rutină.

Probleme legate de ideile suicidare

Autorii studiului au evidențiat, de asemenea, îngrijorări legate de răspunsul insuficient al platformei la ideile suicidare. În timpul testelor, s-a observat că bannerul de intervenție în caz de criză, care oferea legături către servicii de ajutorare, apărea doar atunci când pacientul își descria simptomele. În momentul în care cercetătorii au adăugat rezultate normale de laborator, bannerul a dispărut complet.

Unul dintre cercetători a declarat că este deosebit de îngrijorător faptul că bariera de protecție în caz de criză depinde de menționarea rezultatelor de laborator. Astfel de limitări ar putea avea consecințe grave, crescând riscul de automutilare sau sinucidere. Specialistul a subliniat că modelul nu este pregătit pentru astfel de situații.

Un purtător de cuvânt al OpenAI a declarat că, deși compania salută cercetările independente, studiul nu reflectă modul în care oamenii folosesc ChatGPT Health în viața reală. Modelul este în continuă actualizare și perfecționare, a adăugat acesta. Totuși, cercetătorii avertizează că, indiferent de modalitatea de antrenare a ChatGPT Health, riscul potențial de prejudiciu justifică măsuri de protecție mai puternice și o supraveghere independentă.

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 08:27