News

Inteligența artificială poate duce la dispariția omenirii. Avertismentul creatorului ChatGPT, Sam Altman

Inteligența artificială, o bombă cu ceas pentru întreaga omenire. Ce riscuri majore invocă fondatorii OpenAI și creatorul ChatGPT.
31.05.2023 | 13:40
Inteligenta artificiala poate duce la disparitia omenirii Avertismentul creatorului ChatGPT Sam Altman
Inteligența artificială generează preocupări privind utilizarea abuzivă a acestei tehnologii puternice / Foto: Hepta
ADVERTISEMENT

Inteligența artificială ar putea duce la  „dispariția” umanității, au avertizat un grup de lideri de afaceri și experți, printre care se numără Sam Altman, creatorul ChatGPT, marți, într-o declarație online, cu privire la amenințările și riscurile reprezentate de ascensiunea AI. Lupta împotriva riscurilor legate de inteligența artificială ar trebui să fie „o prioritate globală, la fel ca alte riscuri la nivelul întregii societăți, cum ar fi pandemiile și războiul nuclear”, au scris semnatarii pe site-ul web al Center for AI Safety, o organizație non-profit cu sediul în SUA.

„Riscuri profunde pentru societate și umanitate”

Geoffrey Hinton, considerat unul dintre părinții fondatori ai inteligenței artificiale (AI) și semnatar al declarației, a avertizat deja asupra pericolelor pe care aceasta le prezintă atunci când și-a părăsit postul la gigantul Google, la începutul lunii mai. Progresele din sectorul inteligenței artificiale implică „riscuri profunde pentru societate și umanitate”, scria el în New York Times. În martie, miliardarul Elon Musk – unul dintre fondatorii OpenAI, al cărui consiliu de administrație a părăsit ulterior – și sute de experți din întreaga lume au cerut o pauză de șase luni în cercetarea în domeniul IA puternice, invocând „riscuri majore pentru umanitate”.

ADVERTISEMENT

Implementarea rapidă a unei inteligențe artificiale din ce în ce mai „generale”, cu capacitățile sale cognitive umane și potențialul de a revoluționa multe profesii, a fost simbolizată de lansarea de către OpenAI, în martie, a GPT-4, o versiune nouă și mai puternică a ChatGPT. Americanul Sam Altman lansează în mod regulat avertismente, temându-se că inteligența artificială ar putea „provoca daune grave lumii”, manipulând alegerile sau răsturnând piața muncii. Săptămâna trecută, la Paris, el a discutat cu președintele francez Emmanuel Macron despre modul în care se poate găsi „echilibrul corect între protecția și impactul pozitiv” al acestei tehnologii, scrie Le Figaro.

Riscul de a fi folosit în scopuri malefice

Experții sunt de acord că inteligența artificială este un „instrument fantastic” atunci când este folosită în serviciul sănătății, al tehnologiei sau al astrofizicii. Însă, pe mâini greșite, poate fi folosită și în scopuri criminale sau de dezinformare. Iar ce este mai rău nu este întotdeauna acolo unde se crede că ar fi. „Pe măsură ce capacitățile tehnologiilor bazate pe inteligență artificială se extind, crește și potențialul lor de exploatare infracțional”, avertizează Lewis Griffin, cercetător în domeniul informaticii la University College London (UCL). El și colegii săi au întocmit o listă cu 20 de activități ilegale săvârșite de inteligența artificială și le-au clasificat în ordinea pagubelor potențiale, a câștigurilor sau profiturilor realizate, a ușurinței de implementare și a dificultății de detectare și de oprire.

ADVERTISEMENT

Cele mai terifiante infracțiuni, cum ar fi „hoții roboți” care pătrund în apartament, nu sunt neapărat cele mai periculoase, deoarece pot fi ușor de contracarat și afectează puține persoane în același timp. În schimb, informațiile false generate de „boți” pot distruge reputația unei persoane cunoscute sau pot fi folosite pentru a o șantaja. Greu de combătut, aceste deepfakes pot provoca daune economice și sociale considerabile.

Inteligența artificială: amenințările grave

Videoclipuri false: uzurparea identității unei persoane, făcând-o să spună sau să facă lucruri pe care nu le-a spus sau făcut niciodată, în scopul de a solicita accesul la date securizate, de a manipula opinia publică, de a afecta reputația cuiva etc. Aceste videoclipuri false sunt practic nedetectabile. Piratarea vehiculelor autonome: preluarea controlului unui vehicul autonom și utilizarea acestuia ca armă (de exemplu, pentru a comite un atac terorist, a provoca un accident etc.). Phishing personalizat: generarea de mesaje personalizate, automatizate, pentru a crește eficiența phishing-ului care vizează colectarea de informații securizate sau instalarea de software rău intenționat.

ADVERTISEMENT

Piratarea sistemelor controlate de inteligența artificială: perturbarea infrastructurilor, provocând, de exemplu, o pană de curent generalizată, congestionarea traficului sau întreruperea logisticii alimentare. Șantaj la scară largă: colectarea de date cu caracter personal pentru a trimite mesaje de amenințare automatizate. Inteligența artificială ar putea fi, de asemenea, utilizată pentru a genera dovezi false (de exemplu, „sextortion”). Știri false scrise de inteligența artificială: redactarea de articole de propagandă care par a fi emise de o sursă de încredere. Inteligența artificială ar putea fi, de asemenea, utilizată pentru a genera mai multe versiuni ale unui anumit conținut pentru a-i crește vizibilitatea și credibilitatea.

Inteligența artificială: amenințări de gravitate medie

Roboți militari: preluarea controlului asupra roboților sau armelor în scopuri infracționale și criminale. O amenințare potențial foarte periculoasă, dar dificil de pus în aplicare, deoarece echipamentele militare sunt, în general, foarte bine protejate. Escrocherii: vânzarea de servicii frauduloase cu ajutorul inteligenței artificiale. Există multe exemple istorice notorii de escroci care au reușit să vândă cu succes tehnologii false și costisitoare unor organizații mari, inclusiv unor guverne naționale și armatei. Coruperea datelor: modificarea sau introducerea în mod deliberat de date false. De exemplu, transformarea unui detector în a-l face să nu mai recunoască armele sau încurajarea unui algoritm să investească pe o anumită piață.

ADVERTISEMENT

Atac cibernetic bazat pe învățare: efectuarea de atacuri care sunt atât specifice cât și masive, de exemplu, prin utilizarea inteligenței artificiale pentru a sonda slăbiciunile unui sistem înainte de a lansa mai multe atacuri simultane. Drone de atac autonome: deturnarea dronelor autonome sau utilizarea acestora pentru a ataca o țintă. Aceste drone ar putea fi deosebit de amenințătoare dacă acționează în masa, adică în roiuri autoorganizate. Refuzul accesului: deteriorarea sau privarea utilizatorilor de accesul la un serviciu financiar, la un loc de muncă, la un serviciu public sau la o activitate socială. Neprofitabilă în sine, această tehnică poate fi utilizată ca șantaj.

Recunoașterea facială: deturnarea sistemelor de recunoaștere facială, de exemplu prin fabricarea de fotografii de identitate false (acces la smartphone-uri, camere de supraveghere, controale de pasageri etc.). Manipularea piețelor financiare: coruperea algoritmilor de tranzacționare în scopul de a prejudicia concurenții, de a scădea sau de a crește în mod artificial un titlu de valoare, de a provoca o prăbușire financiară etc.

Inteligența artificială: amenințări de intensitate redusă

Exploatarea prejudecăților: exploatarea prejudecăților existente în algoritmi, de exemplu, recomandările YouTube pentru a canalize telespectatori sau clasamentele Google pentru a îmbunătăți profilurile produselor sau a denigra concurenții. Roboți spărgători: utilizarea de roboți mici și autonomi care se strecoară în cutiile poștale sau prin ferestre pentru a recupera chei sau a deschide uși. Pagubele sunt potențial reduse, deoarece sunt  localizate la scară mică. Blocarea detectării de către inteligența artificială: zădărnicirea sortării și colectării datelor de către inteligența artificială pentru a șterge probe sau a ascunde informații infracționale (de exemplu, pornografie).

Recenzii false ale AI: generarea de recenzii false pe site-uri precum Amazon sau Tripadvisor pentru a afecta sau favoriza un produs. Urmărirea asistată de IA: utilizarea sistemelor de învățare automată pentru a urmări locația și activitatea unei persoane. Contrafacere: realizarea de conținut fals, cum ar fi picturi sau muzică, care poate fi vândut sub o falsă paternitate. Potențialul de prejudiciu este relativ scăzut, în măsura în care există puține picturi sau muzică cunoscute.

Creșterea economică asociată cu AI

În timp ce controversele continuă să înconjoare inteligența artificială, este clar că integrarea acestei tehnologii în viața de zi cu zi este inevitabilă. Știind că tehnologia se va dezvolta tot mai rapid, va fi esențial să se asigure impactul AI pentru a maximiza creșterea economică și socială asociată cu această tehnologie. Se preconizează că piața AI va crește până la 18,4 miliarde de dolari până în 2026 numai în SUA. Mult mai mult în comparație cu valoarea de 6,8 miliarde de dolari din 2021.

Pentru întreprinderi, adoptarea AI în operațiunile lor este esențială pentru creșterea economică viitoare. Cele care implementează inteligența artificială vor înregistra o creștere economică mare, în timp ce cei neadaptați vor rămâne în urmă, mărind decalajele economice dintre companii. McKinsey Global Institute preconizează că, până în 2030, cei care adoptă timpuriu AI ar putea înregistra o creștere cu 122% a fluxului de numerar, în timp ce cei care nu o adoptă ar putea înregistra o scădere a veniturilor de până la -23%.

Superputerile inteligenței artificiale

Scopul AI este de a analiza o structură de date și, având în vedere un set de parametri, trebuie să atingă un anumit obiectiv. După cum descrie John McCarthy de la Universitatea Stanford: „Inteligența artificială nu trebuie să se limiteze la metode care sunt observabile din punct de vedere biologic”. Aceasta înseamnă că, pentru ca un program de inteligență artificială să ajungă din punctul A în punctul B, acesta va găsi cea mai simplă și mai eficientă cale de a atinge acest obiectiv, respectând în același timp regulile exacte stabilite de autorii programului.

Aceste reguli sau comenzi exacte sunt, de fapt, ceea ce face inteligența artificială atât de periculoasă. Atunci când se programează tehnologia de învățare automată, trebuie să se țină cont de toate aspectele, deoarece orice neglijențe pot duce cu ușurință la rezultate părtinitoare, la prejudecăți și chiar la prejudicii umane. Un alt pas implică geopolitica din jurul viitoarelor „superputeri ale inteligenței artificiale” și preocupările legate de modul în care națiunile aleg să reglementeze ceea ce constituie o utilizare corectă a acestei tehnologii.

Instrument geopolitic

Dintr-o perspectivă globală, cele mai multe dintre orientările privind tehnologia AI sunt create de țările mai dezvoltate. Un studiu privind principiile etice și liniile directoare din jurul AI a arătat că „țările africane și sud-americane nu sunt reprezentate în mod independent în organizațiile internaționale sau supranaționale”, ceea ce a predeterminat în esență candidatura lor slabă pentru a deveni un viitor lider în tehnologia AI. Puterea geopolitică a unei națiuni în viitor va fi, cel mai probabil, direct corelată cu dezvoltarea sa tehnologică și, mai exact, cu software-ul de inteligență artificială.

În lumea de astăzi, SUA și China sunt lideri mondiali în această privință și candidați promițători pentru a deține această putere în viitor. O revoluție a inteligenței artificiale va forța multe țări în curs de dezvoltare să se angajeze în opțiuni alternative atunci când vine vorba de achiziționarea de tehnologii AI de la puterile economice. Aceste opțiuni alternative pot include formarea de alianțe globale pentru a primi și achiziționa tehnologie de la liderii mondiali.

Un sediu european pentru OpenAI

Revenind la Sam Altman, acesta a avut săptămâna trecută un turneu pe continental european, oprindu-se în Spania, Franța, Polonia, Germania și Marea Britanie. El a discutat în același timp despre reglementarea inteligenței artificiale cu factorii de decizie politică – s-a întâlnit cu liderii naționali Pedro Sanchez, Emmanuel Macron, Mateusz Morawiecki, Olaf Scholz și Rishi Sunak – și a cercetat locații pentru un birou european al OpenAI.

„Chiar avem nevoie de un birou în Europa”, a declarat Altman pentru Politico la un eveniment organizat vineri la Paris. În conformitate cu viitoarea Lege a Uniunii Europene privind inteligența artificială (Artificial Intelligence Act) , companiile cu utilizatori cu sediul în UE ar avea nevoie de o prezență în blocul comunitar, iar „autoritățile naționale de supraveghere” vor fi însărcinate cu punerea în aplicare a regulamentului. Prin urmare, eventuala alegere a locației sediului său central va determina ce țară membră o va supraveghea atunci când vine vorba de aplicarea Legii privind inteligența artificială.

Prezentată pentru prima dată de Comisia Europeană în 2021, Legea privind AI interzice unele utilizări ale tehnologiei (cum ar fi scorul social și unele cazuri de recunoaștere facială) și ar impune reguli mai stricte legate de siguranță și supraveghere atunci când vine vorba de aplicații AI considerate „cu risc ridicat”. În plus, conform unei versiuni a Legii adoptată la începutul acestei luni de către legislatorii din Parlamentul European, modelele „generative”, cum ar fi ChatGPT – care pot crea conținut nou, cum ar fi text sau fotografii – vor trebui să dezvăluie un rezumat al materialelor protejate de drepturi de autor utilizate ca date de instruire. Legea, care trebuie încă să fie aprobată de reprezentanții Comisiei Europene și de țările membre ale UE – răspunde îngrijorărilor artiștilor și editorilor că firmele de inteligență artificială ar putea să le folosească proprietatea intelectuală fără consimțământul sau cunoștința lor.

 

 

ADVERTISEMENT