Inteligența artificială, noul inamic în războiul informațional: cum este folosită pentru a propaga propaganda
Conflictul din Ucraina, care a început în 2022, a devenit un teren fertil pentru dezinformare, iar inteligența artificială (AI) a amplificat masiv această problemă, conform unei analize recente. Noile instrumente digitale alimentează narațiunile pro-ruse, oferind o platformă pentru răspândirea știrilor false la o scară fără precedent.
Operațiuni automatizate și manipulare la scară largă
Una dintre cele mai îngrijorătoare evoluții este trecerea de la producția manuală de știri false la operațiuni complet automatizate. Rețele coordonate pot genera milioane de articole cu ajutorul inteligenței artificiale, distribuindu-le masiv pentru a influența algoritmii și sistemele de căutare. Astfel, prin repetare și volum, narațiunile fabricate pot ajunge să fie integrate în răspunsurile automate ale unor sisteme conversaționale precum ChatGPT.
O strategie des întâlnită este așa-numitul „LLM Grooming”, o tehnică prin care mediul online este inundat cu informații false, astfel încât acestea să fie preluate și reproduse ulterior de modele lingvistice de mari dimensiuni. Un exemplu concret este rețeaua Pravda, un conglomerat de site-uri active în zeci de țări, care publică lunar zeci de mii de materiale aliniate discursului pro-Kremlin. Prin citări și linkuri încrucișate, aceste articole capătă o aparență de credibilitate și influențează vizibilitatea în mediul online.
Imagini hiperrealiste și erodarea încrederii
Progresele în generarea de imagini și videoclipuri au dus realismul la un nou nivel, îngreunând identificarea conținutului manipulat. Au circulat, de exemplu, clipuri cu presupuși soldaţi ucraineni care criticau mobilizarea sau descriau situații dramatice de pe front. Ulterior s-a demonstrat că aceste materiale erau generate cu ajutorul inteligenței artificiale, folosind fețe și voci sintetice. Diferențele față de realitate sunt minime, fiind greu de depistat fără instrumente specializate.
Mai grav este efectul secundar: proliferarea conținutului fals oferă un „alibi” pentru contestarea probelor autentice. În momentul în care publicul este bombardat constant cu imagini generate artificial, orice material real poate fi respins drept „creat de AI”. Se creează astfel o prezumție de falsitate, care slăbește încrederea în dovezile reale privind crimele de război sau abuzurile documentate. Campaniile de acest tip nu sunt limitate la o singură limbă, ci sunt traduse și adaptate pentru publicuri din multiple țări, demonstrând caracterul coordonat al acestor strategii.
În afara manipulării prin AI, au fost identificate și campanii menite să descurajeze voluntarii străini să se alăture forțelor ucrainene sau să submineze negocierile de pace. Recent, mai multe guverne au semnalat o creștere a tentativei de interferență în procesul electoral prin intermediul dezinformării generate de AI.