Inteligența artificială și viitorul războiului: un pericol iminent?
Dezbaterea globală despre utilizarea inteligenței artificiale (AI) în domeniul militar a depășit stadiul speculațiilor. Experții în securitate, drept internațional și etică militară exprimă îngrijorări tot mai mari cu privire la modul în care această tehnologie avansează pe câmpul de luptă, depășind limitele acceptabile. Utilizarea AI nu mai este o promisiune, ci o realitate, accelerând ritmul operațiunilor militare și ridicând întrebări critice despre control și responsabilitate.
AI pe front: o realitate cu efecte controversate
Datele recente arată că armata Statelor Unite folosește deja AI, inclusiv modele lingvistice extinse, pentru diverse funcții, de la logistică și sarcini administrative până la analiză de informații și sprijin decizional. Un exemplu notabil este sistemul Maven, o platformă care utilizează AI pentru procesarea imaginilor și suport tactic, inclusiv pentru sugerarea și prioritizarea țintelor. Teoretic, această tehnologie ar putea duce la operațiuni mai precise și la reducerea victimelor civile. Practica, însă, nu confirmă întotdeauna această promisiune.
Conflictele din Ucraina și Gaza ilustrează faptul că AI nu a eliminat costurile umane uriașe ale războiului. Cercetătorii avertizează că nu există încă dovezi solide care să ateste că inteligența artificială reduce decesele civile sau numărul deciziilor greșite de țintire. O distincție crucială este făcută între AI utilizat ca instrument de asistență și AI utilizat pentru autonomie letală. În timp ce prima categorie presupune că omul menține controlul final, cea de-a doua deschide calea sistemelor capabile să identifice, să urmărească și să elimine ținte fără intervenție umană directă. Aici încep cele mai mari îngrijorări.
Armele autonome: o amenințare la adresa stabilității globale?
Posibilitatea ca AI să fie integrată în arme letale complet autonome este un subiect extrem de controversat. Ideea ca dronele sau alte sisteme de luptă să poată decide singure cine este combatant și cine nu, ridică probleme majore de legalitate și moralitate. Legile umanitare internaționale impun o distincție clară între țintele militare și civili. Specialiștii subliniază că sistemele autonome bazate pe modelele actuale de AI nu sunt suficient de fiabile pentru a respecta aceste obligații în mod constant.
Modelele AI, în special cele lingvistice extinse, pot genera răspunsuri și recomandări fără a oferi o transparență reală asupra modului de gândire intern. O astfel de lipsă de claritate poate duce la erori costisitoare. Experții consideră că îndepărtarea omului din procesul de luare a deciziilor este inacceptabilă din punct de vedere etic. De asemenea, raportul menționează riscul ca deciziile automate să ducă la escaladarea accidentală a conflictelor. Dacă judecata umană este înlocuită, spațiul pentru reflecție și dezescaladare se reduce dramatic.
Luarea de poziție: companii și guverne în dispută
Relația dintre guverne și companiile private care dezvoltă aceste modele este, de asemenea, o componentă critică a dezbaterii. Un episod recent a implicat o dispută între guvernul american și Anthropic, o companie care a dezvoltat modelul Claude. Departamentul de Război al SUA a solicitat acces nelimitat la sistemele AI furnizate, cerând ca acestea să poată fi utilizate pentru „orice utilizare legală”. Anthropic a refuzat să elimine anumite restricții, susținând că modelul său nu trebuie folosit pentru supraveghere internă în masă sau pentru a opera arme complet autonome.
Administrația americană a redirecționat utilizarea tehnologiei companiei, semnând un acord cu OpenAI. Chiar și în acest nou acord, OpenAI a specificat că tehnologia sa nu va fi utilizată pentru supraveghere sau pentru ghidarea armelor complet autonome. Angajații din companii precum Google și OpenAI au lansat petiții prin care cer conducerii să nu permită utilizarea modelelor pentru supraveghere internă în masă și nici pentru ucidere autonomă fără control uman.
La Geneva au loc discuții pentru a stabili reguli clare privind sistemele autonome letale și dobândirea responsabilă de AI militară, dar experții sunt pesimiști cu privire la șansele de a ajunge la un acord formal solid. O provocare majoră este că statele cu programe active de AI militar, inclusiv SUA, Israel și China, nu par interesate de reguli mai stricte.