Învățarea automată, pusă la încercare: Un experiment a scos la iveală vulnerabilități majore în sistemele de inteligență artificială, demonstrând cât de ușor pot fi induse în eroare de informații false. Cercetători din Suedia au creat o boală inexistentă, au generat date și indicii online, apoi au testat cele mai performante modele de IA. Rezultatele au fost surprinzătoare.
Cercetarea suedeză și modelul ”boala inventată”
Experimentul a pornit de la o premisă simplă: inteligența artificială ”înghite” cantități uriașe de informații de pe internet. Cercetătorii au profitat de acest lucru pentru a introduce o ”boală” falsă, cu simptome descrise în detaliu și cu presupuse tratamente. Au presărat indicii despre această boală pe platforme online, inclusiv în baze de date științifice. Modelele de IA, antrenate pe cantități masive de date, au fost apoi interogate despre această boală inventată.
Rezultatele au arătat că modelele de IA au preluat informațiile false, le-au integrat în ”cunoștințele” lor și chiar au generat răspunsuri care sugerau că boala este reală. Unele modele au oferit sugestii de tratament sau au indicat posibile surse de informare, fără a pune la îndoială veridicitatea informațiilor. Această vulnerabilitate ridică semne de întrebare serioase cu privire la capacitatea IA de a distinge între informații corecte și greșite. Experimentul suedez a demonstrat că IA poate fi ușor manipulată.
Experimentul Digi24.ro și efectele în România
Plecând de la descoperirile echipei suedeze, o publicație online din România a replicat, într-o oarecare măsură, experimentul, concentrându-se pe modalitatea prin care informația falsă ajunge să fie distribuită și ”crezută” de roboți. Echipa editorială a creat o serie de întrebări despre un subiect controversat, plasând deliberat informații eronate în întrebare, pentru a observa răspunsurile generate de IA.
Concluziile au confirmat preocupările exprimate. Modelele de IA au preluat informațiile greșite, le-au ”validat” și le-au prezentat ca fiind fapte. Acest lucru indică faptul că, în lipsa unei verificări riguroase a informațiilor, inteligența artificială poate amplifica dezinformarea. Fenomenul este îngrijorător, mai ales în contextul actual, marcat de polarizare și de încredere scăzută în sursele de informare.
Implicații pentru viitorul tehnologiei și al societății
Experimentele demonstrează că este crucială dezvoltarea unor mecanisme solide pentru a evita ca inteligența artificială să contribuie la răspândirea informațiilor false. Companiile din domeniul tehnologiei trebuie să investească în sisteme de verificare a informațiilor și în metode de antrenare a modelelor de IA, astfel încât acestea să poată identifica și respinge datele eronate.
Problema este una complexă, cu implicații profunde pentru societate. În contextul alegerilor prezidențiale din acest an, cu un candidați controversați pe scena politică, cu Nicușor Dan președinte, și Ilie Bolojan prim-ministru, riscul ca IA să fie folosită pentru a manipula opinia publică este ridicat. Dezvoltarea unor instrumente de combatere a dezinformării devine o necesitate urgentă. Mircea Geoană, fost secretar general NATO, a subliniat importanța contracarării amenințărilor hibride, inclusiv a dezinformării.
Platformele online și actorii politici sunt acum supuși unor presiuni crescute pentru a-și asuma responsabilitatea pentru conținutul pe care îl distribuie. Un număr tot mai mare de cetățeni români își exprimă îngrijorarea față de impactul IA și al dezinformării asupra procesului democratic. Un grup de experți din mediul academic românesc urmează să prezinte concluziile unui studiu amplu despre influența inteligenței artificiale în campaniile electorale, până la finalul lunii mai 2026.