OpenAI promite interdicții privind supravegherea și armele autonome. Dar ce se ascunde sub aparențe?
Gigantul de inteligență artificială OpenAI a anunțat recent noi „principii” menite să limiteze utilizarea tehnologiei sale. Promisiunile includ interdicții privind supravegherea în masă a cetățenilor americani și responsabilitate umană în utilizarea forței, inclusiv în cazul sistemelor autonome de armament. Însă, analiștii avertizează că aceste garanții ar putea fi mai degrabă o strategie de comunicare decât restricții reale. Criticii atrag atenția că, în loc de interdicții clare, OpenAI folosește formulări care lasă loc de interpretare, permițând utilizarea tehnologiei „în scopuri legale”, ceea ce ar putea dilua efectiv aceste „principii”.
„Legal” versus „acceptabil”: o distincție esențială
Problema centrală este că, în loc să stabilească limite clare, OpenAI pare să se bazeze pe un cadru legal deja existent, uneori considerat permisiv. În istoria recentă a Statelor Unite, supravegherea în masă a fost justificată prin interpretări juridice vaste. Sistemele de inteligență artificială, capabile să analizeze cantități uriașe de date, pot transforma informații aparent banale în profiluri detaliate ale indivizilor. O lege gândită pentru o lume în care analiza era limitată uman poate deveni ineficientă într-o lume în care analiza este automată, continuă și aproape gratuită.
Un acord bazat pe legea existentă moștenește și zonele sale gri. Prin urmare, o astfel de abordare ar putea permite interpretări care ar depăși ceea ce publicul larg consideră acceptabil. Deși OpenAI poate susține că nu „colectează în masă” date, compania ar putea continua să le analizeze. De asemenea, poate afirma că nu face „monitorizare generalizată”, dar ar putea rula interogări repetate, segmentate, care duc la același rezultat: profilare la scară. Cu alte cuvinte, inteligența artificială nu este doar un instrument, ci un multiplicator de putere.
Frâne tehnice și limitele lor
Un argument folosit de OpenAI este introducerea de mecanisme tehnice pentru a preveni încălcarea „liniilor roșii”. Acestea includ clasificatoare care monitorizează sau blochează anumite acțiuni. Cu toate acestea, astfel de „frâne tehnice” au limite. În primul rând, un clasificator poate interpreta un mesaj, dar nu poate determina întotdeauna intenția operațională din spatele acestuia. De exemplu, o interogare despre activitatea unei persoane poate fi un caz izolat sau o parte dintr-un proces de supraveghere pe scară largă.
În al doilea rând, aceste mecanisme tehnice pot fi ineficiente dacă filosofia generală a acordului este „orice utilizare legală”. Dacă autoritățile consideră o acțiune legală, instrumentele tehnice nu o pot bloca. Ele devin mai degrabă instrumente de raportare, nu de veto. Responsabilitatea umană declarată în termeni generali nu înseamnă întotdeauna o garanție reală, mai ales într-un lanț operațional complex în care deciziile sunt distribuite între sisteme, echipe și proceduri.
Ambiguitatea ca strategie de comunicare
Modul în care OpenAI definește interdicțiile privind utilizarea forței este, de asemenea, controversat. Restricțiile sunt adesea condiționate: de exemplu, tehnologia nu poate fi utilizată pentru a „direcționa independent” arme autonome. Criticii susțin că, în loc să interzică utilizarea, compania respectă regulile existente, care pot fi reinterpretate și reinterpretate.
Intenția generală pare să fie menținerea unei aparențe de control, în timp ce se lasă loc de manevră. Practic, Sam Altman și compania sa pot părea că au protejat o linie roșie, în timp ce acceptă formula „orice utilizare legală”. Scopul este de a transmite un mesaj care să liniștească publicul și angajații, dar care să nu blocheze compania din punct de vedere legal.