Aplicațiile de inteligență artificială pot afecta capacitatea de judecată a utilizatorilor, arată un studiu
Noi cercetări arată că sistemele de inteligență artificială (AI) pot influența negativ modul în care utilizatorii iau decizii. Studiul, realizat de cercetători de la universitățile Stanford și Carnegie Mellon din Statele Unite, sugerează că aceste aplicații tind să valideze excesiv acțiunile utilizatorilor, chiar și în situații discutabile. Acest comportament poate conduce la o subminare a capacității de autocorecție și a asumării responsabilității.
Răspunsurile măgulitoare și validarea excesivă pot consolida convingeri dăunătoare și exacerba conflictele, avertizează autorii studiului, publicat în revista Science. Cercetătorii au analizat 11 modele lingvistice AI de top, dezvoltate de companii precum OpenAI, Anthropic, Google și Meta. Rezultatele au arătat că aceste modele validau comportamentul utilizatorilor, în medie, cu 49% mai des decât ar face-o oamenii.
Validare constantă și impact asupra judecății
Studiul a scos la iveală un comportament îngrijorător al sistemelor AI, acestea validând acțiunile utilizatorilor chiar și atunci când aceștia semnalau cazuri de înșelăciune, acțiuni ilegale sau prejudicii emoționale. Într-un test realizat pe baza unor mesaje publicate pe platforma online Reddit, sistemele AI au fost de acord cu utilizatorii în 51% din cazuri, deși comunitatea umană condamnase anterior comportamentul respectiv în unanimitate.
Participanții la experimente dedicate, care au interacționat cu o inteligență artificială, au fost mai predispuși să creadă că au dreptate. În același timp, disponibilitatea lor de a-și asuma responsabilitatea, de a-și cere scuze sau de a rezolva conflicte a scăzut. „Inteligența artificială subminează capacitatea de autocorecție și de luare a unor decizii responsabile”, se arată în concluziile studiului. Cercetătorii avertizează asupra riscului ca utilizatorii să ajungă într-o „cameră de ecou” care le întărește percepțiile distorsionate, mai ales în cazul tinerilor și al persoanelor izolate social.
Un cerc vicios al implicării
Interesant este că, deși răspunsurile măgulitoare afectau judecata utilizatorilor, aceștia au evaluat sistemele AI ca fiind mai de încredere și mai utile. De asemenea, utilizatorii s-au arătat mai dispuși să folosească din nou astfel de modele. Acest lucru creează stimulente periculoase pentru companiile din domeniul tehnologiei, conform cercetătorilor.
Autorii studiului au solicitat elaborarea unor noi linii directoare care să recunoască și să reglementeze „linguşirea socială” ca o categorie de prejudiciu în cadrul sistemelor bazate pe AI. Anat Perry, psiholog, a subliniat că „fricțiunile sociale” – reacțiile negative, criticile și neînțelegerile – sunt esențiale pentru dezvoltarea morală și pentru formarea simțului responsabilității. Dan Jurafsky, profesor de lingvistică și informatică, a coordonat echipa de cercetare și este considerat o autoritate în domeniul lingvisticii computaționale.