OpenAI spune că va introduce în ChatGPT o funcție de tip „trusted contact” („contact de încredere”), care le va permite utilizatorilor adulți să desemneze o persoană apropiată ce poate primi notificări atunci când sistemul consideră că utilizatorul ar putea avea nevoie de sprijin suplimentar. Anunțul apare într-o postare de tip „update” despre măsurile companiei legate de conversațiile sensibile și de sănătatea mintală.
În același text, OpenAI confirmă că o serie de procese legate de presupuse prejudicii asociate utilizării ChatGPT au fost recent coordonate într-o procedură unificată în California, unde urmează să fie desemnat un judecător de coordonare.
Ce a anunțat OpenAI și cui i se adresează funcția
Potrivit OpenAI, „trusted contact” este gândit pentru utilizatorii adulți și este descris ca o inițiativă separată de măsurile pentru minori (precum controalele parentale). Compania spune că lucrează cu experți din două structuri consultative – Council on Well-Being and AI și Global Physicians Network – pentru a pregăti această lansare.
OpenAI nu a publicat, deocamdată, specificații de produs: nu există o dată clară de lansare, iar descrierea rămâne la nivel de principiu („utilizatorii desemnează pe cineva care poate primi notificări când ar putea avea nevoie de sprijin”).
Întrebarea cheie: ce înseamnă „posibilă criză” și când se trimite notificarea
O parte delicată ține de pragurile de declanșare. Din anunțul OpenAI nu reiese ce tip de semnale vor genera notificarea: va fi nevoie de mențiuni explicite despre auto-vătămare sau intenție suicidară, ori sistemul va încerca să identifice și indicatori mai puțin direcți (de exemplu, semne de delir, manie, psihoză sau escaladare emoțională)?
Din perspectivă de politici publice și produs, aici apar două riscuri opuse:
- Prag prea ridicat: funcția devine rar utilă, pentru că intervine doar când utilizatorul verbalizează explicit o intenție.
- Prag prea scăzut: crește riscul de false positives, iar notificările pot fi percepute ca invazive, mai ales dacă utilizatorii folosesc AI tocmai pentru a discuta lucruri pe care nu vor să le împărtășească altor persoane.
Context: de ce revine tema siguranței în conversațiile sensibile
OpenAI leagă această inițiativă de eforturile mai vechi de a îmbunătăți răspunsurile în conversații sensibile, inclusiv situații de sănătate mintală, auto-vătămare și dependență emoțională de AI. În octombrie 2025, compania a publicat o analiză despre îmbunătățirea răspunsurilor în astfel de conversații și a spus că adaugă „non-suicidal mental health emergencies” în setul standard de testare de siguranță pentru lansări viitoare.
În același material, OpenAI menționează estimări privind prevalența conversațiilor legate de simptome severe (precum psihoză sau manie) și subliniază cât de dificilă este măsurarea unor evenimente rare, chiar și în trafic foarte mare.
Separat, presa a relatat pe baza acelorași comunicări că OpenAI estima, la acel moment, că peste un milion de utilizatori săptămânal trimit mesaje cu indicatori expliciți de potențială intenție suicidară, iar aproximativ 0,07% dintre utilizatorii activi săptămânal ar putea arăta semne de urgențe asociate psihozei sau maniei.
Cum se leagă „trusted contact” de controalele parentale
OpenAI amintește că, din septembrie 2025, a introdus controale parentale pentru conturi de adolescenți, inclusiv mecanisme de notificare „de siguranță” către părinți în cazuri rare, fără acces la transcripturile conversațiilor.
De altfel, ideea unui mecanism de conectare cu persoane reale apare și în comunicările mai vechi ale companiei: într-o postare din august 2025, OpenAI spunea că explorează posibilitatea ca adolescenții, cu supraveghere parentală, să poată desemna un contact de urgență, astfel încât sistemul să ajute la conectarea cu sprijin real în momente de distres acut.
De ce funcția poate fi utilă și unde apar controversele
În forma descrisă, „trusted contact” este un mecanism de tip „plasă de siguranță” pe care utilizatorul îl activează voluntar. În scenarii bine definite (de pildă, persoane care știu că pot avea episoade de criză și vor un plan de sprijin), ideea poate reduce timpul până la contactarea cuiva din lumea reală.
În același timp, rămân întrebări de design și guvernanță:
- Consimțământ și confidențialitate: ce volum de informații ajunge la contactul desemnat? Notificarea e una „minimală” (de tip „verifică dacă ești bine”), sau include context? OpenAI nu a detaliat.
- Fără contact desemnat: dacă sistemul detectează semnale de criză, dar utilizatorul nu a setat un contact, ce intervenții rămân (mesaje de de-escaladare, recomandarea de sprijin profesional, resurse)? OpenAI spune că lucrează la metode de evaluare care simulează conversații mai lungi tocmai pentru a identifica riscuri și a îmbunătăți răspunsurile în momente sensibile.
- Litigii și presiune publică: anunțul vine pe fondul consolidării unor procese legate de presupuse vătămări asociate conversațiilor cu ChatGPT, aspect menționat chiar de companie în postarea din februarie 2026.
Ce urmează și ce merită urmărit
OpenAI afirmă că va oferi mai multe detalii „în săptămânile următoare”, pe măsură ce actualizările se pregătesc pentru lansare. Pentru utilizatori, diferența dintre o funcție utilă și una problematică va depinde de implementare: praguri de declanșare, claritatea setărilor, ce date sunt partajate și cum sunt gestionate erorile.
Dacă tu sau cineva apropiat traversează o criză de sănătate mintală, un chatbot nu poate înlocui sprijinul profesionist sau intervenția de urgență. În situații acute, contactarea serviciilor medicale sau a unei persoane de încredere din viața reală rămâne esențială.





