Tehnologie

Microsoft a actualizat termenii de utilizare pentru Copilot, generând controverse online Microsoft a făcut recent o modificare semnificativă în termenii de utilizare pentru Copilot, platforma sa de inteligență artificială integrată în produsele Office

Microsoft a actualizat termenii de utilizare pentru Copilot, generând controverse online Microsoft a făcut recent o modificare semnificativă în termenii de utilizare pentru Copilot, platforma sa de inteligență artificială integrată în produsele Office

Microsoft a actualizat termenii de utilizare pentru Copilot, generând controverse online

Microsoft a făcut recent o modificare semnificativă în termenii de utilizare pentru Copilot, platforma sa de inteligență artificială integrată în produsele Office. Această actualizare a fost intens comentată și criticată pe rețelele de socializare, fiind percepută ca o declarație explicită despre natura și limitele serviciului. Conform noilor condiții, compania avertizează utilizatorii că „Copilot este destinat exclusiv divertismentului”, iar riscul de eroare sau comportament neașteptat trebuie acceptat de utilizatori.

Această schimbare a atras atenția, în special pentru că vine într-un context în care AI-ul devine un instrument tot mai utilizat în mediul de business. În ciuda promovării pentru utilizări productive, Microsoft pune accent pe faptul că rezultatele generate de Copilot nu trebuie considerate definitive sau sigure. Ultima actualizare a termenilor a fost făcută pe 24 octombrie 2025, fiind semnalată de utilizatori și de experți ca o mișcare cu impact asupra percepției și utilizării AI-ului.

Compania planează actualizarea limbajului de avertizare

Un purtător de cuvânt al Microsoft a declarat pentru un canal de specialitate că firma are în plan să modifice formularea actualelor avertizări. Acesta a subliniat că exprimarea învechită din termenii de utilizare nu mai reflectă în mod fidel modul actual în care se folosește Copilot. De altfel, compania a promis că această formulare va fi revizuită odată cu următoarea actualizare.

Microsoft încearcă astfel să adapteze comunicarea la modul în care utilizatorii interacționează acum cu produsul, dar rămâne clar că un nivel de prudență este recomandat pentru cei care se bazează pe această tehnologie. În plus, limitarea clară a responsabilității utilizatorilor pare să fie un principiu fundamental implementat în ultimele versiuni ale termenilor.

Practici similare și avertismente în domeniu

Nu este un fenomen exclusiv pentru Microsoft. Alte companii de tehnologie, precum OpenAI și xAI, folosesc și ele avertismente pentru utilizatori referitoare la limita de credibilitate a rezultatelor generate de modelele lor de inteligență artificială. De exemplu, OpenAI precizează explicit că utilizatorii nu trebuie să considere rezultatele ca fiind singurele adevăruri, în timp ce xAI avertizează că serviciile lor nu trebuie percepute ca fiind sursa de informații exacte sau definitive.

Această abordare a devenit o practică comună în industrie, pentru a preveni utilizarea neintenționată a AI-ului în contexte în care rezultatele pot fi greșite, incomplețe sau chiar înșelătoare. În timp ce companiile încearcă să combată riscurile asociate cu inteligența artificială, acestea își asumă o responsabilitate limitată prin astfel de avertismente.

Faptul că Microsoft intenționează să actualizeze limbajul de avertizare indică o conștientizare a importanței clarității și responsabilității în comunicare, însă până în prezent, situația ridică întrebări despre modul în care utilizatorii trebuie să interpreteze și să se raporteze la tehnologie. În momentul de față, nu există o dată precisă pentru publicarea noii formulări, însă schimbările sunt așteptate în viitoarele actualizări ale platformei.