Tehnologie

IA, pericol pentru bolnavi: Răspunsuri greșite despre cancer, inclusiv chimioterapie

IA, pericol pentru bolnavi: Răspunsuri greșite despre cancer, inclusiv chimioterapie

Aproape jumătate dintre răspunsurile oferite de asistenții virtuali bazați pe inteligență artificială cu privire la tratamentul cancerului sunt eronate sau incomplete. Un studiu recent, publicat în revista BMJ Open, scoate la iveală probleme îngrijorătoare legate de acuratețea informațiilor medicale furnizate de aceste platforme. Rezultatele cercetării arată că pacienții ar putea fi induși în eroare, fiind orientați către terapii nevalidate științific.

Dezinformare periculoasă

Studiul, realizat de cercetători de la Lundquist Institute for Biomedical Innovation, a testat mai multe platforme de inteligență artificială populare, inclusiv Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek. Evaluarea răspunsurilor a fost realizată de specialiști oncologi, care au constatat că o proporție semnificativă a informațiilor furnizate erau problematice. Aproximativ 30% dintre răspunsuri au fost considerate „parțial problematice”, fiind în mare parte corecte, dar incomplete. Mai grav, aproape 20% dintre răspunsuri au fost catalogate drept „foarte problematice”, conținând erori semnificative și lăsând loc interpretărilor subiective.

Cercetătorii au elaborat întrebări menite să evidențieze potențialele erori. Acestea abordau subiecte frecvent discutate, precum legătura dintre tehnologia 5G sau utilizarea antiperspirantelor și cancer, dar și siguranța steroizilor anabolizanți sau riscurile vaccinurilor. Rezultatele au arătat o tendință îngrijorătoare a sistemelor de a oferi un „echilibru fals”, acordând aceeași importanță surselor științifice validate și surselor nevalidate, cum ar fi bloguri sau postări pe rețelele sociale. Această abordare poate induce pacienții în eroare și îi poate îndepărta de tratamente medicale dovedite.

Capcanele algoritmilor

Una dintre cele mai mari probleme identificate a fost tendința platformelor de a enumera și chiar a oferi referințe către clinici care promovează terapii alternative. Acesta este un aspect esențial, deoarece poate însemna direcționarea pacienților către tratamente nevalidate. În plus, chatboturile au arătat o înclinație spre a prezenta un „echilibru fals” prin acordarea unei importanțe egale surselor științifice validate și surselor nevalidate, creând confuzie.

Cercetătorii au remarcat că aceste sisteme au performanțe slabe în domenii medicale unde dezinformarea este ridicată. Utilizarea lor fără educație publică adecvată și supraveghere poate amplifica răspândirea informațiilor eronate. Consecințele pot fi grave, mergând de la îngrijorare inutilă din cauza informațiilor eronate despre prognosticul bolii până la întârzierea accesului la tratamentele standard.

Creșterea utilizării și a riscurilor

Un sondaj recent Gallup arată că aproximativ un sfert dintre adulții din Statele Unite folosesc aceste instrumente pentru sfaturi legate de sănătate. Încrederea în răspunsurile IA este, totuși, limitată, doar o treime dintre utilizatori declarând că au încredere. Specialiștii avertizează că informațiile eronate despre terapii alternative și suplimente sunt deja larg răspândite, iar unele dintre aceste produse pot avea efecte adverse grave.

Institutul Lundquist for Biomedical Innovation este un centru de cercetare medicală din cadrul Harbor-UCLA Medical Center, recunoscut pentru cercetările sale în oncologie, boli infecțioase și sănătate publică. Institutul colaborează cu Universitatea California.