News

Alegerile din SUA, în umbra dezinformării. Vocea lui Biden, clonată de IA: „Momentul deepfake-ului politic a sosit”

Dezinformarea marchează alegerile prezidențiale din SUA. Vocea lui Biden clonată de IA stârnește temeri privind manipularea și perturbarea procesului electoral. Manipularea audio, punctul cel mai vunerabil
05.02.2024 | 18:03
Alegerile din SUA in umbra dezinformarii Vocea lui Biden clonata de IA Momentul deepfakeului politic a sosit
Recentele apeluri false care imită vocea președintelui Joe Biden exacerbează temerile experților / Foto: Hepta
ADVERTISEMENT

Spectrul dezinformării masive, generate cu ajutorul inteligenței artificiale (IA) se profila deja asupra cursei pentru Casa Albă în cadrul alegerilor prezidențiale de peste ocean, dar recentele apeluri false care imită vocea președintelui Joe Biden exacerbează temerile experților.

„Acesta este cu siguranță vârful icebergului”

„Ce porcărie!”, proclamă mesajul difuzat de un apel automat (robocall) uzurpând vocea președintelui Joe Biden, manipulat digital (deepfake) pentru a-i încuraja pe locuitorii din New Hampshire să nu meargă să voteze la alegerile primare democrate. Acest mesaj a determinat autoritățile locale să lanseze rapid o anchetă privind o posibilă „tentativă ilegală de perturbare” a scrutinului care a avut loc la sfârșitul lunii trecute.

ADVERTISEMENT

Cercetătorii specializați în dezinformare se tem de o creștere a numărului de astfel de deturnări în acest an electoral crucial, datorită numeroaselor instrumente disponibile în prezent pentru clonarea vocilor cu ajutorul inteligenței artificiale. Mai ales că, în opinia lor, acestea sunt ieftine, ușor de utilizat și greu de urmărit.

„Acesta este cu siguranță vârful icebergului”, a declarat Vijay Balasubramaniyan, director general și cofondator al firmei de securitate cibernetică Pindrop. „Ne putem aștepta să vedem mult mai multe deepfakes în această perioadă electorală”, avertizează el.

ADVERTISEMENT

Potrivit unei analize efectuate de Pindrop, un software de clonare a vocii dezvoltat de start-up-ul ElevenLabs a fost folosit pentru a crea apelurile false ale lui Joe Biden. Acest lucru vine într-un moment în care echipele de campanie republicane și democrate își pregătesc aparatura îmbunătățită cu inteligență artificială pentru a-și face cunoscute pozițiile, iar investitorii investesc milioane de dolari în start-up-uri de clonare a vocii.

„Momentul deepfake-ului politic a sosit”

Contactată în mai multe rânduri de AFP, ElevenLabs nu a răspuns. Site-ul său oferă o versiune gratuită de clonare „pentru a crea instantaneu voci naturale în orice limbă cu ajutorul inteligenței artificiale”. Recomandările sale de utilizare specifică faptul că este permisă clonarea vocii unor personalități politice într-un mod „umoristic sau parodic” care este „clar identificabilă ca atare” de către ascultător, scrie Le Journal de Montreal.

ADVERTISEMENT

Apelurile telefonice trucate ale lui Joe Biden au scos la iveală posibilitatea ca persoane rău intenționate să folosească instrumente de inteligență artificială pentru a-i descuraja pe alegători să se prezinte la vot. „Momentul deepfake-ului politic a sosit”, spune Robert Weissman, președintele grupului pentru drepturi civile Public Citizen.

„Congresmenii trebuie să acționeze rapid pentru a ridica măsuri de protecție sau ne îndreptăm spre haos politic”, a declarat el. „Deepfake-ul din New Hampshire ilustrează numeroasele moduri în care manipularea digitală poate provoca confuzie”.

ADVERTISEMENT

Alegerile prezidențiale din noiembrie sunt considerate pe scară largă ca fiind primele alegeri marcate de inteligența artificială din SUA, experții fiind îngrijorați de impactul acesteia asupra încrederii în procesul democratic, alegătorii având dificultăți în a discerne adevărul de minciună.

Manipularea audio, punctul „cel mai vulnerabil”

Manipularea audio generează cele mai multe temeri, deoarece reprezintă punctul „cel mai vulnerabil”, potrivit lui Tim Harper, analist la Center for Democracy and Technology. „Este ușor să clonezi o voce cu ajutorul inteligenței artificiale și este dificil de depistat”, a declarat el.

Acest lucru se datorează faptului că programele de inteligență artificială proliferează mai repede decât cele dedicate detectării falsurilor. Inteligența artificială intervine într-un peisaj politic deja tensionat și extrem de polarizat, permițând oricui, de exemplu, să afirme că o informație se bazează pe fapte „fabricate”, este de acord Wasim Khaled, director general al Blackbird.AI, o platformă online de detectare a dezinformării.

ByteDance, compania chineză care deține TikTok, a dezvăluit recent StreamVoice, o aplicație software de inteligență artificială care poate transforma vocea unui utilizator în orice altă voce în timp real. „ElevenLabs a fost folosit de data aceasta, dar este mai mult decât probabil ca un alt dispozitiv generator să fie folosit în viitoarele atacuri”, susține Vijay Balasubramaniyan, pledând pentru crearea de „garanții”.

La fel ca alți experți, el recomandă integrarea filigranelor audio sau a semnăturilor digitale în astfel de programe ca protecție, dar și ca mijloc de a limita accesul la utilizatorii verificați. Chiar și în aceste condiții, controalele vor fi probabil „foarte dificile și foarte costisitoare”, consideră analistul Tim Harper, care solicită „investiții” mai mari în fața acestui risc pentru „integritatea alegerilor”.

ADVERTISEMENT