Războiul aerian se bazează din ce în ce mai mult pe inteligența artificială, care sprijină piloții, identifică țintele și decide din ce în ce mai mult singură asupra atacurilor. Experții avertizează că în contextul armelor controlate de algoritmi se depășește o linie periculoasă.
Războiul din Iran a aruncat modele mari din laborator direct pe câmpul de luptă, iar analiștii susțin că Operațiunea Epic Fury nu este doar un atac aerian comun al SUA şi Israelului, ci mai degrabă un test de stres al inteligenței artificiale efectuat pe un câmp de luptă real. „Cei care pot comprima lanțul ‘senzor-decizie-tragere’ în minute sau chiar secunde vor fi cei care vor deţine puterea şi vor stabili prețurilor în următoarele runde de geopolitică”, spune unul dintre directorii Executivi ai Sentient Labs o companie de inteligenţă artificială implicată în dezvoltarea de tehnologii AI de generare avansată.
„Inteligența artificială ar putea duce la o escaladare a amplorii pagubelor și a numărului de victime în conflictele armate”, spune şi Kaja Kowalczewska, profesor la Centrul de Justiție Digitală de la Universitatea din Wrocław și Universitatea Swansea și expert în Tehnologia Dreptului bazată pe Inteligență Artificială. „Ne aflăm într-un moment de cotitură pentru umanitate”, recunoaște Nicole Van Rooijen, directoarea executivă a inițiativei Stop Killer Robot.
În Operaţiunea Epic Fury, experţii în AI sunt de acord că platformele cloud de tip Nimbus servesc drept fundație critică de calcul care susține planificarea complexă a țintelor, simularea câmpului de luptă și fuziunea informațiilor în timp real, deși căile specifice prin care se realizează și detaliile operaționale rămân clasificate. Pentru a înțelege cum schimbă inteligența artificială câmpul de luptă, cei de la Sentient Labs au făcut o anliză a unora dintre cele mai controversate sisteme ale Israelului: Lavender, Gospel și Where’s Daddy.
Astfel, Lavender a analizat tiparele comportamentale și relaționale ale aproape tuturor bărbaților adulți din Gaza, atribuind fiecăruia un „scor de suspectat militant” de la 1 la 100 și a identificat rapid până la 37.000 de ținte suspectate de a fi afiliate grupurilor armate. Gospel se concentrează pe arhitectură și infrastructură, etichetând automat clădirile considerate a fi utilizate în scopuri militare şi crează potenţialele ţinte pentru atacuri aeriene. Where’s Daddy este un sistem de targetare asistat de AI care nu decide „pe cine” să lovească (lista de ținte există deja), ci „când” să fie lansată lovitura. Practic se urmăreşte momentul în care țintele listate se întorc acasă și declanșează atacurile atunci când persoanele vizate se află în reședință, expunând în același timp membrii familiei și vecinii la un risc letal extrem. Un asemenea mod de operare seamănă izbitor cu uciderea ayatollahului Ali Khamenei, alături de care au murit soţia, o fiică, o noră, un ginere şi mai mulţi nepoţi.
La fel, analiştii sunt de părere că cele peste 100 de victime de la școala iraniană din Minab, situată în apropierea unei baze a Corpului Gărzilor Revoluționare Islamice, sunt probabil rezultatul unui atac bazat pe inteligență artificială, deși încă nu există informații oficiale care să confirme că un bot a desemnat ținta și a decis să atace.
La sediul ONU din Geneva tocmai au început discuții cruciale privind armele complet autonome, iar acestea vor dura până la sfârșitul săptămânii. Nicole Van Rooijen avertizează participanţii că trebuie să ia măsuri urgente şi să nu se împotmolească în discuţii şi dispute legate de definiţii şi detalii inutile, în timp ce ritmul dezvoltării tehnologice e unul galopant. „Fără o legislație internațională obligatorie, decalajul dintre capacitățile acestor sisteme și capacitatea noastră de a le gestiona se mărește în fiecare an”, explică ea.
Marta Stepniak, expertă la Institutul de Afaceri Civile din Lodz, spune că sistemele de arme autonome (AWS) sunt testate în luptă de mai mulți ani. Primele cazuri documentate de utilizare a lor au avut loc în Libia în 2020, unde Turcia a desfășurat drone Kargu-2 echipate cu tehnologie de recunoaștere și procesare a imaginilor. „În prezent, în Orientul Mijlociu, ca răspuns la dronele iraniene Shahed, printre altele, americanii folosesc în premieră în luptă sistemul militar de ultimă generaţie LUCAS de tip loitering. Aceste mașini localizează și atacă independent ținte, iar rolul operatorilor devine din ce în ce mai iluzoriu”, a declarat aceasta pentru portalul polonez rp.pl.
LUCAS (Low-Cost Autonomous Attack System) este un program dezvoltat pentru United States Air Force şi este dotat, între altele, cu senzor radar și infraroșu pentru identificarea țintelor au capacitatea de a selecta autonom un anumit tip de ţintă şi o pot ataca. Deși există argumente conform cărora astfel de sisteme de inteligență artificială sunt sub supraveghere umană atentă, experta spune că acest lucru este îndoielnic, din cauza timpului limitat pentru analizarea situațiilor.
„Dacă ne amintim acțiunile din Fâșia Gaza și sistemele folosite de Israel, nu știu dacă putem vorbi despre un control semnificativ dacă operatorul are la dispoziție 10, 15 sau 20 de secunde pentru a decide să folosească forța. Avem de-a face cu o dezumanizare tot mai mare a procesului decizional. Acest fenomen este confirmat de cercetări științifice, inclusiv de cele efectuate de dr. Artur Modlinski de la Universitatea din Lodz, care arată că oamenii tind să aibă încredere instinctuală în sistemele IT”, a mai spus Stepniak.
Ea mai spune că, în condiții de stres extrem, soldații nu fac altceva decât să parcurgă scenarii predefinite generate de inteligența artificială, fără a mai explora ei înşişi căi alternative. „Acest lucru face ca, în cele din urmă, oamenii să iasă din procesul decizional, iar asta reprezintă o ameninţare semificativă, pentru că automatizarea câmpului de luptă este asociată inclusiv cu erori ale algoritmilor înșiși”, a mai afirmat experta. Acesta a dat exemplu teste în care sistemele de arme autonome au ignorat complet persoanele care se aflau în scaune cu rotile. „Deoarece erau atât de puține date în sesiunile de antrenament, pur și simplu aceste persoane nu existau pentru sistem. Asta indică o imperfecțiune semnificativă a acestor soluții”, avertizează ea.
Tocmai împotriva depășirii limitei utilizării inteligenței artificiale a protestat Dario Amodei, directorul Anthropic, care a refuzat accesul Pentagonului la modelele sale din domeniul dezvoltării armelor complet autonome, lipsite de supravegherea umană. Consecința? Armata a reziliat un contract de aproximativ 200 de milioane de dolari cu compania, iar aproximativ 60.000 de firme din complexul militar-industrial american au primit un termen de șase luni pentru a elimina complet modelul Claude din sistemele lor (inclusiv gigantul analitic Palantir Technologies). Decizia a generat reacții globale. Angajați de la Amazon, Google și Microsoft au cerut conducerii să renunțe la contractele privind armele autonome, temându-se că inteligența artificială înarmată ar putea deveni un pericol pentru umanitate.
Anthropic a fost înlocuit însă rapid de Open AI, dar contractul generos pe care Sam Altman l-a obţinut cu Departamentul de Război al SUA a fost întâmpinat cu critici pe scară largă, iar utilizatorii au început să abandoneze ChatGPT în semn de protest. Dezinstalările aplicației în SUA au crescut cu 295% într-o singură zi, pe 28 februarie, conform analiștilor de la Sensor Tower. Printre utilizatori, numărul de recenzii de o stea pentru ChatGPT în App Store a crescut cu aproape 8%, în timp ce recenziile pozitive (cinci stele) au scăzut la jumătate. În același timp, aplicația Claude a urcat pe primul loc în App Store-ul SUA sâmbătă, 28 februarie, în creștere cu peste 20 de locuri față de săptămâna precedentă. Platforma Appfigures raportează că numărul total de descărcări zilnice ale aplicației Claude în SUA l-a depășit pentru prima dată pe cel al ChatGPT, iar experţii spun că asta demonstrează că rezistența publică la utilizarea militară a inteligenţei artificiale este în creștere.
Sistemul Claude este utilizat de Comandamentul Central al SUA (Centcom) care operează în Orientul Mijlociu, unde este utilizat pentru evaluarea informațiilor, identificarea țintelor și simularea scenariilor de luptă. Algoritmul a fost folosit și în operațiunea de mare amploare de capturare a lui Nicolas Maduro. „Inteligența artificială încă nu face față cerințelor de bază impuse militarilor, inclusiv diferențierii corecte între persoane și obiecte ca ținte militare. Atacul asupra unei școli din Iran, unde au murit zeci de eleve, poate indica faptul că dacă lovitura a fost efectuată ca urmare a unei analize eronate a AI nu ar trebui să încredințăm algoritmilor decizia asupra vieții sau morții. Mașina poate considera cu ușurință o școală drept un depozit de arme. În plus, AI-ul nu resimte constrângeri morale”, spune Kaja Kowalczewska.
Mai mult, simulările recente efectuate la King’s College London arată că modele AI consacrate, inclusiv Claude, în care algoritmii au folosit cu ușurință arme nucleare în 95% din cazuri. Acestea tind să aleagă escaladarea conflictului în scenarii fictive de criză nucleară. În 95 % din simulări, cele mai avansate modele au ajuns să folosească arme nucleare tactice – adesea fără a acorda prioritate negocierii sau dezamorsării situației.