Google, criticat pentru avertismentele slabe referitoare la sfaturile medicale generate de inteligența artificială
Gigantul tehnologic Google este pus sub semnul întrebării cu privire la modul în care gestionează avertismentele de siguranță legate de sfaturile medicale generate de inteligența artificială (IA). O investigație a atras atenția asupra faptului că aceste avertismente sunt dificil de observat pentru utilizatori, ceea ce ar putea conduce la interpretări greșite ale informațiilor și, implicit, la riscuri pentru sănătatea acestora. Google ar minimiza importanța acestor avertismente, punând astfel utilizatorii în pericol.
Avertismentele sunt discrete și greu de observat
Conform investigației, rezumatele generate de IA, utilizate în motorul de căutare Google, nu afișează inițial niciun avertisment clar atunci când oferă sfaturi medicale. Deși compania susține că încurajează utilizatorii să caute ajutor specializat în astfel de situații, avertismentele sunt adesea plasate la finalul textului, scrise cu un font mic și mai greu de observat. Pentru a accesa aceste informații, utilizatorii trebuie să acceseze un buton suplimentar, ceea ce face ca atenția lor să se îndrepte mai degrabă spre informațiile inițiale.
Purtătorii de cuvânt ai Google au menționat că prezentările generale generate de IA „încurajează oamenii să solicite sfatul unui medic specialist” și că necesitatea de a căuta asistență medicală este frecvent menționată în cadrul rezumatului propriu-zis, „atunci când este cazul”. Cu toate acestea, experții în domeniul IA au exprimat îngrijorări cu privire la aceste practici.
Experții avertizează asupra riscurilor asociate
Un cercetător de la Massachusetts Institute of Technology (MIT), expert în domeniul IA, a subliniat că „absența avertismentelor atunci când utilizatorii primesc sfaturi medicale creează o mulțime de pericole critice”. Acesta a adăugat că, chiar și cele mai avansate modele de IA pot furniza informații eronate sau pot pune accent pe satisfacerea utilizatorilor, în detrimentul acurateței informațiilor. Un profesor în domeniul inteligenței artificiale de la Universitatea Queen Mary din Londra a evidențiat, de asemenea, o problemă structurală, menționând că „prezentările generale AI sunt concepute pentru viteză, nu pentru acuratețe, ceea ce duce la erori în informațiile medicale, care pot fi periculoase”.
Problema se agravează, mai spun experții, din cauza faptului că utilizatorii pot oferi informații incomplete sau pot interpreta greșit simptomele. În ianuarie, o altă investigație a reliefat riscurile pentru sănătatea utilizatorilor asociate informațiilor false despre sănătate furnizate de Google AI Overviews. În urma acestei investigații, Google a eliminat rezumatele IA pentru anumite căutări medicale, dar nu pentru toate.