AI sfidează anonimatul pe internet: identificarea utilizatorilor devine o provocare
Inteligența artificială (AI) avansează rapid, iar consecințele se resimt deja în diverse domenii. Un studiu recent demonstrează capacitatea modelelor lingvistice de a identifica utilizatorii anonimi pe internet, un aspect care ridică semne de întrebare serioase cu privire la confidențialitate și libertatea de exprimare online. Cercetătorii au reușit să identifice până la 68% dintre utilizatorii anonimi cu o precizie de 90%, depășind metodele tradiționale.
Pentru a realiza acest lucru, cercetătorii au analizat postări de pe platforme anonime precum Hacker News și Reddit, utilizând modele lingvistice avansate precum Gemini și ChatGPT. Rezultatele au arătat că aceste modele pot identifica autorii conturilor anonime, comparativ cu metodele tradiționale, care au o rată de succes apropiată de zero. „Rezultatele arată că anonimatul utilizatorilor cu pseudonime pe internet nu mai este sustenabil”, au transmis cercetătorii.
Implicațiile acestei descoperiri sunt vaste. Folosirea conturilor anonime a permis multor persoane să își exprime opiniile fără teama de repercusiuni, însă noua tehnologie ar putea schimba fundamental modul în care funcționează internetul. „A avea un mecanism de cercetare sau supraveghere cu modele lingvistice care îți permite pur și simplu să întrebi despre convingerile, opiniile politice, insecuritățile sau orice altceva poate fi cules de pe contul anonim Reddit al unei persoane, de exemplu, ar putea deposeda foarte mult de puterea oamenilor obișnuiți”, a explicat Daniel Paleka, cercetător la Institutul Federal Elvețian de Tehnologie din Zurich (ETH Zurich) și coautor al studiului.
Cum funcționează deanonimizarea prin inteligență artificială?
Procesul de identificare a utilizatorilor anonimi implică analiza detaliată a datelor disponibile public. Cercetătorii au utilizat profiluri de utilizatori de pe Hacker News conectați la conturi LinkedIn pentru a crea o bază de date. Ulterior, aceștia au anonimizat aceste profiluri și le-au introdus în modelele de inteligență artificială. Acestea au căutat informații biografice, preferințe, hobby-uri și alte date relevante.
„Metodele noastre, dacă sunt aplicate dezanonimizării reale, profită de faptul că oamenii dezvăluie detalii personale care ar permite și unui cercetător uman să le identifice. Diferența este că modelele lingvistice pot face acest lucru mult mai ieftin și mai rapid”, a precizat Paleka. Totodată, cercetătorii atrag atenția că chiar și detaliile aparent nesemnificative pot servi drept indicii pentru identificarea unei persoane. De exemplu, stilul de scriere, utilizarea anumitor expresii sau preferințe culturale pot contribui la crearea unui profil detaliat.
Implicații legale și riscuri pentru confidențialitate
Această tehnologie avansată pune sub semnul întrebării respectarea vieții private și libertatea de exprimare online, iar implicațiile juridice sunt considerabile. Companii precum Anthropic și chiar Pentagonul se confruntă cu aceste provocări. „Conform legislației actuale, guvernul poate achiziționa înregistrări ale mișcărilor, navigării pe web și asocierilor americanilor din surse publice fără mandat. IA puternică face posibilă asamblarea acestor date dispersate și individual inofensive într-o imagine completă a vieții oricărei persoane, automat și la scară largă”, a avertizat Anthropic.
Paleka subliniază totodată că, deși modelele lingvistice actuale nu pot identifica cu ușurință personalități precum Satoshi Nakamoto, creatorul Bitcoin, perfecționarea acestora ar putea schimba echilibrul actual. „În viitor, ar putea deveni mai buni decât oamenii la acest tip de cercetare, iar atunci echilibrul s-ar putea schimba”, a explicat cercetătorul.
Într-un context mai larg, dezbaterile privind reglementarea inteligenței artificiale și protecția datelor personale vor continua.