Ia ar putea înlocui inteligența artificială psihoterapeuții

Inteligența artificială, în pragul eșecului în consilierea de sănătate mintală

Noi cercetări sugerează că chatbot-urile bazate pe inteligență artificială (IA), cum ar fi ChatGPT, utilizate pentru consiliere de sănătate mintală, nu sunt pregătite pentru acest rol. Studiul arată că aceste instrumente nu respectă standardele etice profesionale stabilite de organizații precum Asociația Americană de Psihologie, în ciuda faptului că li se solicită să utilizeze abordări psihoterapeutice consacrate. Rezultatele evidențiază riscurile asociate cu utilizarea IA în domeniul sănătății mintale și subliniază necesitatea unor reglementări mai stricte.

În cadrul testelor, chatbot-urile au înregistrat multiple eșecuri. Acestea au gestionat greșit situații de criză, au oferit răspunsuri care au întărit convingerile dăunătoare ale utilizatorilor și au folosit un limbaj care crea aparența empatiei, fără a manifesta o înțelegere reală. Cercetătorii au identificat 15 riscuri distincte, grupate în cinci categorii: lipsa adaptării contextuale, colaborare terapeutică deficitară, empatie înșelătoare, discriminare nedreaptă și lipsa siguranței și a gestionării crizelor.

Prompturile singure nu sunt suficiente

Studiul a fost condus de Zainab Iftikhar, doctorand în informatică la Brown. Echipa sa a investigat dacă prompturile, adică instrucțiunile scrise concepute pentru a ghida rezultatul unui model de IA, ar putea îmbunătăți comportamentul etic al sistemelor în contextul sănătății mintale. „Prompturile sunt instrucțiuni date modelului pentru a-i ghida comportamentul în vederea realizării unei sarcini specifice. Nu schimbi modelul de bază și nu furnizezi date noi, dar promptul ajută la ghidarea rezultatelor modelului pe baza cunoștințelor sale preexistente și a modelelor învățate”, a explicat Iftikhar.

Pentru evaluare, cercetătorii au observat sesiuni simulate, bazate pe conversații reale de consiliere umană, în care modelele de IA au fost instruite să joace rolul de terapeuți CBT (terapie cognitiv-comportamentală). Modelele testate au inclus versiuni ale seriei GPT de la OpenAI, Claude de la Anthropic și Llama de la Meta. Trei psihologi clinici autorizați au analizat transcrierile pentru a identifica posibile încălcări etice.

Lipsa supravegherii și a răspunderii

Experimentul a scos la iveală și o problemă importantă: lipsa unui cadru de reglementare pentru consilierii IA. „În cazul terapeuților umani, există consilii de administrație și mecanisme prin care furnizorii pot fi trași la răspundere profesională pentru maltratare și malpraxis. Dar când consilierii LLM (modele lingvistice mari) comit aceste încălcări, nu există cadre de reglementare stabilite”, a menționat Iftikhar.

În urma acestor rezultate, cercetătorii solicită crearea unor standarde etice, educaționale și juridice pentru consilierii IA, care să reflecte calitatea și rigoarea îngrijirii necesare pentru psihoterapia facilitată de oameni. Publicația studiului a stârnit deja dezbateri în comunitatea academică și în rândul profesioniștilor din domeniul sănătății mintale, accelerând discuțiile despre reglementarea utilizării IA în acest domeniu.

Sursa: Descopera

Oana Badea

Autor

Lasa un comentariu

Ultima verificare: azi, ora 18:55