ChatGPT Health ar putea revoluționa modul în care oamenii își gestionează informațiile medicale, însă un psihiatru avertizează asupra unor capcane ascunse. Este platforma cu adevărat pregătită să protejeze pacienții?
OpenAI a anunțat lansarea ChatGPT Health, o nouă experiență dedicată în cadrul platformei ChatGPT care vizează gestionarea și interpretarea datelor medicale ale utilizatorilor într‑un mod mai structurat și mai sigur. Scopul acestei inițiative este să ofere oamenilor un „hub” centralizat unde își pot conecta informațiile de sănătate: de la date colectate de aplicații de wellness și dispozitive purtabile până la dosare medicale sau rezultatele analizelor. Scopul anunțat: să primească explicații clare, contextualizate, folosind puterea inteligenței artificiale.
Deși OpenAI subliniază că ChatGPT Health nu este un instrument de diagnostic sau tratament și nu înlocuiește medicul, el își propune să ajute utilizatorii să fie mai bine informați, pregătiți pentru consultații și să înțeleagă mai ușor termeni medicali complecşi, precum și să urmărească evoluția anumitor indicatori de sănătate.
Contactat de FANATIK, medicul psihiatru Gabriel Diaconu ne‑a explicat care sunt principalele riscuri pe care le poate aduce utilizarea unui astfel de motor AI în gestionarea datelor de sănătate și interpretarea informațiilor medicale.
„ChatGPT anunță o nouă jucărie în zona sănătății. Iar aceasta cred că este o mișcare mai degrabă prin care să-și protejeze ei interesele. Altfel de anunțuri pompoase la început de an sunt mai degrabă scheme de marketing decât scheme care chiar aduc noutăți pozitive în medicină. Cu alte cuvinte, nu este o inovație în medicină sau în sănătate, ci este efortul unei companii de a limita daunele.
Oamenii au confundat acest motor cu un glob de cristal. Presa a relatat de multe ori cazuri în care aceasta a încurajat oamenii să se sinucidă, le-a dat sfaturi medicale nu doar proaste, dar și periculoase. Și atunci într-o primă fază ce au făcut ei a fost să-i introducă un disclaimer. Acel disclaimer pe care-l folosesc mai nou toate motoarele de tip AI, este că informațiile nu pot să substituie sfatul medical. Și că oamenii ar trebuit să discute cu un doctor. Nici asta n-a fost suficient și lista proceselor a continuat”, a menționat Diaconu.
Gabriel Diaconu a atras atenția și asupra modului în care OpenAI își propune să gestioneze datele medicale prin ChatGPT Health. Acesta arată că, deși compania promovează platforma ca pe un instrument care ar putea „îmbunătăți sănătatea și oferta de servicii medicale”, realitatea este mult mai complexă.
„Acum cu ChatGBT Health, compania mamă, caută să le spună oamenilor să-și uploadeze documente medicale, atenție, în infrastructura lor și pe de altă parte propune că s-ar putea să îmbunătățească sănătatea și oferta de servicii medicale.
Dar eu cred că se creează mai multe probleme decât se rezolvă, pentru că nu există în acest ecosistem legislație pentru pentru pagubă, nu există malpraxis digital. Motoarele acestea nu pot fi făcute responsabile pentru că dau răspunsul greșit la întrebări greșite sau la documente care conțin greșeli”, a punctat specialistul, pentru FANATIK.
În continuare, Diaconu accentuează că, în lipsa unor reglementări clare și a unui cadru legal pentru „malpraxis digital”, introducerea AI în spitale și alte instituții medicale poate duce la consecințe imprevizibile. El nu contestă utilitatea tehnologiei, dar insistă că adoptarea acesteia trebuie făcută cu prudență, cu responsabilitate și cu evaluarea riguroasă a competențelor și limitelor acestor sisteme. În opinia sa, fără astfel de măsuri, riscurile pot depăși beneficiile pentru pacienți și pentru întregul sistem medical.
„Intervin din păcate și alte riscuri. Nu doar cele de confidențialitate. Un risc, lăsând partea de cercetare, unde ipotetic poți să folosești inteligența artificială, constă în introducerea AI în piața de servicii medicale.
Bunăoară, un medicament are niște furci caudine teribile ca să ajungă să fie pus la raft, să fie vândut. Aici ei vând un produs care nu a trecut prin aprobare nici FDA (n.r. Food and Drug Administration), nici EMA (n.r. European Medicines Agency) și care nici nu este considerată tehnologie medicală.
Sunt deja câteva spitale unde au fost implementate soluții AI, dar și acolo nu există încă o jurisprudență comparativă suficientă încât să spui că cineva și-asumă greșelile sau erorile care apar în urma acestei tehnologii. Așa că, eu nu spun că îmi doresc o lume fără astfel de motoare. Ce spun, în schimb, este că îmi doresc o lume în care competența și capabilitățile să fie măsurate cu sobrietate”, a precizat Gabriel Diaconu despre inițiativa de implementare a ChatGPT Health.
Gabriel Diaconu a adus în discuție și exemple internaționale care arată atât potențialul, cât și riscurile introducerii AI în gestionarea prescripțiilor medicale.
„Am văzut că un stat american (n.r. Utah) a implementat un motor AI de reînnoire a prescripțiilor. În acest domeniu s-ar putea să ajute și să optimizeze sistemul informatic de dispensare de medicamente, dar este posibil și să creeze probleme, cum s-a întâmplat pe vremuri, cu fișele electronice. Când au fost niște doze corupte într-o bază de date, iar oamenii s-au trezit că au făcut complicații din cauza dozelor de 10 ori mai mari de anticoagulant, de exemplu. Trebuie să avem o jurisprudență previzibilă și predictibilă în domeniul ăsta.
Comunitatea medicală este letargică și cât privește introducerea de noi tehnologii, trebuie doar să fim conștienți că regulatorul trebuie să rămână regulatorul farmaceutic și pentru dispozitive medicale. În cazul de față, în Europa este EMA și în cazul României este Agenția Națională a Medicamentului și a Dispozitivelor Medicale (ANMDMR)”, a relatat, pentru FANATIK, medicul psihiatru.
Statul american Utah a devenit primul din SUA care a implementat un program pilot în care un motor de inteligență artificială poate reînnoi automat prescripțiile medicale pentru pacienții cu afecțiuni cronice. Această inițiativă, realizată în parteneriat cu platforma de sănătate AI Doctronic, permite sistemului să verifice eligibilitatea, să pună întrebări clinice și să trimită direct la farmacie reînnoirile de medicamente de rutină. Asta fără semnătura unui medic pentru fiecare caz, deși există mecanisme de supraveghere și escaladare la doctor atunci când e necesar.
Autoritățile din Utah susțin că scopul este să îmbunătățească accesul la tratament, să reducă întârzierile în reînnoirea prescripțiilor și să elibereze resursele medicilor pentru cazurile complexe, în timp ce pilotul va fi evaluat riguros pentru siguranță, eficiență și impact asupra pacienților.
În final, Gabriel Diaconu a admis că, dincolo de riscuri, inteligența artificială ar putea avea și beneficii punctuale, în special în reducerea birocrației din sistemul medical, însă avertizează că eficiența nu trebuie confundată cu responsabilitatea.
„Pe de altă parte s-ar putea să rezolve foarte mult din birocrație. Dar apropo de birocrație, o să dau un citat. Este o glumă pe care am primit-o de la o persoană care lucrează în domeniul AI. Și gluma spune așa, cei mai fericiți de când a apărut AI au fost cei din management, pentru că nu mai trebuiau să scrie rapoarte, dar după ce a apărut AI, nimeni din management nu le-a mai citit”, a conchis Gabriel Diaconu.
Reprezentanții companiei transmit că noua funcționalitate este o extensie separată a platformei ChatGPT, orientată exclusiv spre sănătate și wellness. Utilizatorii vor putea conecta documente medicale, rezultate de analize, date din aplicații de monitorizare a activității fizice sau alte informații relevante din istoricul lor medical. Scopul este ca răspunsurile oferite de inteligența artificială să fie mai bine adaptate fiecărui caz, fără a depăși rolul de ghid informativ.
ChatGPT Health poate fi folosit pentru explicații legate de termeni medicali, pentru organizarea informațiilor personale de sănătate, pentru formularea unor întrebări utile înainte de o vizită la medic sau pentru orientare generală în privința stilului de viață și a serviciilor de sănătate.
Un aspect-cheie al acestui produs este modul în care sunt gestionate datele sensibile. OpenAI susține că informațiile introduse în ChatGPT Health sunt păstrate într-un spațiu distinct, separat de conversațiile obișnuite cu ChatGPT. Datele nu sunt folosite pentru antrenarea modelelor AI și nu influențează alte interacțiuni ale utilizatorului pe platformă.
Compania afirmă că această arhitectură a fost concepută special pentru a răspunde preocupărilor legate de protecția datelor medicale, considerate printre cele mai sensibile tipuri de informații personale.
ChatGPT Health se înscrie într-o direcție mai largă prin care OpenAI își propune să dezvolte instrumente dedicate sectorului medical. Anterior, compania a prezentat și HealthBench, un sistem de testare creat împreună cu specialiști din domeniu, care evaluează modul în care modelele AI răspund în situații ce implică informații medicale.
Potrivit OpenAI, astfel de inițiative urmăresc să stabilească limite clare și standarde de siguranță pentru utilizarea inteligenței artificiale în sănătate, menținând rolul AI-ului strict la nivel de sprijin informațional.
Funcția va fi disponibilă inițial pentru un număr limitat de utilizatori, într-o etapă de testare. Feedback-ul acestora va fi folosit pentru ajustări și îmbunătățiri, urmând ca accesul să fie extins treptat, după evaluări suplimentare legate de securitate și utilizare responsabilă.
OpenAI motivează lansarea acestui produs și prin faptul că milioane de oameni folosesc deja ChatGPT pentru întrebări legate de sănătate, ceea ce a evidențiat nevoia unui cadru mai bine organizat și mai sigur pentru astfel de interacțiuni.