O importantă bancă din Regatul Unit a avertizat că noile tehnologii pe bază de Inteligență Artificială reprezintă o mină de aur pentru escroci, oferindu-le instrumentele necesare pentru tot felul de escrocherii. Mai mult, oficialii băncii atrag atenția că oamenii obișnuiți sunt cei mai expuși, escrocii putând recrea cu ajutorul IA orice voce din cel mai scurt clip urcat online.
Milioane de persoane ar putea deveni victime ale escrocheriilor care utilizează inteligența artificială pentru a le clona vocea, a avertizat o bancă britanică. Dacă până acum în România au fost cazuri în care au fost folosite clipuri cu personalități, create cu ajutorul IA, în care escrocii prezentau oferte financiare false, noile tehnologii le pot permite hoților recrearea vocii unei persoane apropiate victimei.
Starling Bank, o bancă exclusiv online din Marea Britanie, a declarat că escrocii sunt capabili să utilizeze inteligența artificială pentru a reproduce vocea unei persoane din doar trei secunde de sunet găsite, de exemplu, într-un videoclip postat online de persoana respectivă.
Escrocii pot identifica apoi prietenii și membrii familiei persoanei și pot folosi vocea clonată de AI pentru a organiza un apel telefonic prin care să ceară bani. Aceste tipuri de escrocherii au potențialul de a „păcăli milioane de persoane”, a declarat Starling Bank într-un comunicat de presă transmis zilele trecute.
Aceste escrocherii au afectat deja sute de persoane. Potrivit unui sondaj realizat luna trecută de banca britanică împreună cu Mortar Research pe un eșantion de peste 3 000 de adulți, mai mult de un sfert dintre respondenți au declarat că au fost vizați de o înșelătorie prin clonarea vocii de către AI în ultimele 12 luni.
Sondajul a arătat, de asemenea, că 46% dintre respondenți nu știau că există astfel de escrocherii și că 8% ar trimite atât de mulți bani cât le-ar cere un prieten sau un membru al familiei, chiar dacă apelul li s-ar părea ciudat.
Banca încurajează oamenii să convină cu cei dragi o „frază sigură” – o frază simplă, aleatorie, ușor de reținut și diferită de celelalte parole – care poate fi utilizată pentru a le verifica identitatea la telefon.
„Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să-și imagineze vreodată că îi fac mai vulnerabili în fața escrocilor. Escrocii au nevoie doar de trei secunde de înregistrare audio pentru a vă clona vocea, dar ar fi nevoie de doar câteva minute cu familia și prietenii dumneavoastră pentru a crea o frază de siguranță care să îi contracareze.
Prin urmare, este mai important ca niciodată ca oamenii să fie conștienți de aceste tipuri de înșelăciuni perpetuate de escroci și de modul în care se pot proteja pe ei înșiși și pe cei dragi pentru a nu cădea victime”.
„Sperăm că prin astfel de campanii putem înarma publicul cu informațiile de care are nevoie pentru a se menține în siguranță. Simplul fapt de a avea o frază de siguranță cu prietenii și familia de încredere – pe care nu o distribuiți niciodată digital – este o modalitate rapidă și ușoară de a vă asigura că puteți verifica cine este la celălalt capăt al firului, a precizat Lisa Grahame, director pentru securitatea informațiilor la Starling Bank, în comunicatul de presă.
Creditorul recomandă să nu se împărtășească fraza de siguranță prin text, ceea ce ar putea facilita aflarea acesteia de către escroci, dar, dacă este împărtășită în acest mod, mesajul ar trebui șters după ce cealaltă persoană l-a văzut.
Pe măsură ce inteligența artificială devine din ce în ce mai capabilă să imite vocile umane, cresc îngrijorările cu privire la potențialul acesteia de a dăuna oamenilor, de exemplu, ajutând infractorii să le acceseze conturile bancare și să răspândească informații false.
La începutul acestui an, OpenAI, creatorul chatbot-ului cu inteligență artificială generativă ChatGPT, a prezentat instrumentul său de replicare a vocii, Voice Engine, dar nu l-a pus la dispoziția publicului în acel stadiu, citând „potențialul de utilizare abuzivă a vocii sintetice”.