Giganții din tehnologie se angajează să lupte împotriva informațiilor false înainte de alegerile importante din acest an din întreaga lume.
În cadrul Conferinței de securitate de la Munchen, companiile BigTech vor dezvălui planurile lor de a-și uni forțele pentru a combate abuzul de așa numite „deepfakes” în cadrul unor scrutine importante.
Giganții din domeniul tehnologiei plănuiesc un nou „acord” al industriei pentru a lupta împotriva „conținutului electoral înșelător al inteligenței artificiale”, care amenință integritatea alegerilor democratice majore din întreaga lume în acest an.
Un proiect de acord tehnologic arată că firmele de tehnologie doresc să colaboreze pentru a crea instrumente precum filigranele și tehnicile de detectare pentru a identifica, eticheta și dezminți imaginile și înregistrările audio ale personalităților publice, manipulate de inteligența artificială „deepfake”.
Proiectul include, de asemenea, angajamente companiilor de a fi mai deschise cu privire la modul în care firmele luptă împotriva dezinformării generate de inteligența artificială pe platformele lor.
„Afirmăm că protecția integrității electorale și a încrederii publice este o responsabilitate comună și un bun comun care transcende interesele partizane și frontierele naționale”, se arată în proiect.
Textul – care este un proiect și care ar putea suferi modificări – urmează să fie prezentat atunci când liderii politici și de securitate se vor reuni la Conferința de Securitate de la München, care va începe vineri.
În cadrul conferinței, firmele de tehnologie BigTech au beneficiat de o atenție și de un spațiu tot mai mari de-a lungul anilor, pe măsură ce amenințări precum războiul informațional și atacurile cibernetice au crescut.
Mai ales de la războiul ilegal de agresiune al Rusiei împotriva Ucrainei, care a distrus pacea în Europa. În Conceptul său strategic, NATO definește Rusia ca fiind cea mai mare și mai directă amenințare la adresa securității aliaților și la adresa păcii și stabilității în spațiul euroatlantic.
Prin coerciție, subversiune, agresiune și anexare, Rusia încearcă să exercite un control direct asupra altor țări și să stabilească sfere de influență. Moscova utilizează mijloace convenționale, cibernetice sau hibride – inclusiv dezinformarea – împotriva aliaților și partenerilor.
Adobe, Google, Meta, Microsoft, OpenAI și TikTok speră să finalizeze și să prezinte detaliile vineri, la Conferința de Securitate de la Munchen, potrivit unei declarații comune pe care companiile au oferit-o pentru Politico.
„Într-un an critic pentru alegerile globale, companiile de tehnologie lucrează la un acord pentru a combate utilizarea înșelătoare a inteligenței artificiale care vizează alegătorii”, se arată în declarație.„Adobe, Google, Meta, Microsoft, OpenAI, TikTok și alții lucrează împreună pentru a progresa în acest obiectiv comun”.
Un raport al organizatorilor Conferinței de Securitate de la Munchen, prezentat luni, a arătat cum temerile legate de inteligența artificială au crescut vertiginos în ultimul an în marile economii globale, în special în Italia, Franța și Brazilia.
Firmele de tehnologie se află sub presiunea guvernelor, inclusiv a Uniunii Europene, pentru a pune stăpânire pe problema deepfakes și a materialelor înșelătoare generate de inteligența artificială. Mai multe firme, printre care OpenAI și Meta, au declarat că vor începe să eticheteze deepfake-urile în lunile următoare.
Deepfake-uri politice au apărut deja în Statele Unite, Polonia și Marea Britanie, printre multe alte țări. Cel mai recent, SUA au fost zguduite de un apel robot care s-a dat drept președintele Joe Biden, ceea ce a ridicat temeri cu privire la impactul tehnologiei asupra politicii americane.
Legea Uniunii Europene privind inteligența artificială ar impune ca tot conținutul generat de inteligența artificială să fie etichetat în mod clar ca atare. Blocul comunitar folosește, de asemenea, Legea privind serviciile digitale pentru a forța industria tehnologică să lupte contra deepfake-urilor.
Proiectul de acord a lansat idei care includ dezvoltarea unei „tehnologii de detectare”, a unor „identificatori bazați pe standarde deschise” pentru conținutul deepfake și a unor filigrane folosind standardele C2PA și SynthID, care sunt inițiative existente care implică Microsoft, Google și o gamă largă de alte firme de tehnologie.
Dar proiectul a adăugat că instrumente tehnice precum „metadatele, filigranele, clasificatoarele sau alte forme de proveniență sau tehnici de detectare” nu pot atenua pe deplin riscurile IA, sugerând că inițiativa ar avea nevoie de sprijinul guvernelor și al altor organizații pentru a sensibiliza publicul cu privire la problema deepfake-urilor.
Alți actori din industria tehnologică au criticat inițiativa, deoarece aceasta ar deturna atenția de la menținerea sub control a companiilor de tehnologie prin reglementări și supraveghere.
Democrațiile „au depășit cu mult epoca în care putem avea încredere în companii pentru a se autoreglementa”, a declarat Meredith Whittaker, cofondator al AI Now Institute, care a văzut săptămâna trecută un draft al documentului.
„Deepfake nu contează cu adevărat decât dacă ai o platformă pe care îl poți difuza”, a adăugat Whittaker, susținând că angajamentul nu a reușit să abordeze problemele legate de modul în care platformele de social media și modelele de publicitate sunt folosite pentru a viza anumiți alegători.