Tehnologie

Modelul AI Anthropic, „prea periculos”, spart de hackeri

Modelul AI Anthropic, „prea periculos”, spart de hackeri

Acces neautorizat la modelul AI Mythos, dezvoltat de Anthropic, a fost confirmat de companie. Modelul, proiectat pentru securitate cibernetică la nivel enterprise, face parte dintr-un program de testare restrâns. Incidentul ridică semne de întrebare cu privire la protecția datelor și potențialele riscuri asociate tehnologiilor avansate de inteligență artificială.

Detaliile scurgerii de informații

Potrivit informațiilor disponibile, un grup de utilizatori a reușit să acceseze modelul Mythos AI prin intermediul unui furnizor terț implicat în testare. Accesul ar fi fost facilitat printr-un forum online privat. Membrii acestuia, interesați de modele AI nelansate public, au căutat să obțină acces la tehnologiile aflate în dezvoltare. Sursele citate de Bloomberg indică faptul că utilizatorii neautorizați nu doar că au reușit să pătrundă în sistem, dar ar fi folosit modelul în mod repetat. Modelul Mythos AI este conceput pentru a identifica vulnerabilitățile informatice și a consolida sistemele de securitate.

Reacția companiei Anthropic

Un purtător de cuvânt al Anthropic a confirmat că firma analizează situația, dar a subliniat că nu există, în acest moment, dovezi că infrastructura internă a companiei ar fi fost compromisă. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Compania a avertizat anterior că tehnologia „poate genera riscuri fără precedent”, dacă ajunge în mâini nepotrivite. Modelul este testat în cadrul unui program intern, cunoscut sub numele de Project Glasswing, care implică un număr limitat de parteneri din tehnologie și sectorul financiar.

Implicațiile pentru securitate

Printre companiile care testează modelul Mythos AI se numără nume mari precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley ar fi implicate în testarea tehnologiei. Incidentul subliniază importanța măsurilor de securitate riguroase și a controlului accesului în contextul dezvoltării și testării modelelor AI cu capacități avansate. Compania Anthropic continuă investigațiile pentru a evalua amploarea incidentului și pentru a implementa măsurile necesare pentru a preveni astfel de evenimente în viitor.