OpenAI a început implementarea unui sistem de „predicție a vârstei” în ChatGPT, conceput pentru a identifica mai bine conturile care ar putea aparține unor utilizatori sub 18 ani și pentru a aplica automat setări de siguranță mai stricte. Compania prezintă schimbarea ca o măsură de protecție pentru adolescenți, într-un moment în care chatboturile sunt tot mai des analizate pentru modul în care gestionează conversațiile despre autovătămare, violență sau sexualitate.
De ce apare acum predicția vârstei în ChatGPT
În ultimele luni, OpenAI s-a confruntat cu presiune publică și juridică legată de modul în care modelele conversaționale răspund în situații sensibile, inclusiv în cazuri care implică minori. În paralel, compania a actualizat Model Spec, documentul intern care descrie cum ar trebui să se comporte modelele, introducând principii dedicate utilizatorilor sub 18 ani în situații cu miză ridicată.
Cum estimează ChatGPT vârsta unui utilizator
Modelul de predicție nu pornește de la un singur semnal, ci combină indicatori de comportament și semnale asociate contului. Printre exemplele menționate se află: intervalele orare de activitate, tiparele de utilizare pe termen lung, vechimea contului și vârsta declarată de utilizator (dacă există). Dacă sistemul nu este suficient de sigur, contul este plasat implicit pe setări mai prudente.
Ce restricții se aplică atunci când contul este evaluat ca „sub 18 ani”
Dacă un cont este estimat ca aparținând unui minor, ChatGPT ar trebui să reducă expunerea la categorii de conținut considerate cu risc. OpenAI indică, între altele, următoarele tipuri de conținut care nu ar trebui să fie afișate sau permise în aceeași formă ca pentru adulți:
- violență grafică sau conținut explicit sângeros
- reprezentări ale autovătămării
- jocuri de rol sexuale, romantice sau violente
- „provocări” virale care ar putea încuraja comportamente riscante
- conținut care promovează standarde corporale extreme, diete nesănătoase sau body shaming
În practică, această schimbare înseamnă că același cont poate primi răspunsuri mai restrictive sau refuzuri mai frecvente la solicitări care, în mod normal, ar putea trece pentru un adult.
Ce pot face adulții care sunt clasificați greșit
OpenAI spune că utilizatorii adulți care ajung „din greșeală” în experiența sub 18 ani își pot confirma vârsta printr-un proces de verificare cu selfie, operat de Persona, un furnizor terț de verificare a identității. Compania susține că nu primește selfie-ul sau actul de identitate, iar Persona ar șterge datele (selfie sau ID) în maximum 7 zile de la verificare.
Un detaliu important: OpenAI precizează și că, dacă nu vrei ca platforma să îți mai ruleze predicția vârstei, poți alege verificarea vârstei prin Persona, iar după verificare predicția nu se mai aplică pe contul tău.
Lansare și context: unde se aplică și ce urmează
Implementarea este în curs pe planurile pentru consumatori, iar în Uniunea Europeană compania vorbește despre o extindere „în săptămânile următoare”, ceea ce sugerează un rollout etapizat și diferențiat regional.
În fundal, OpenAI a semnalat și intenția de a introduce funcții suplimentare pentru utilizatori verificați ca adulți („adult mode”), dar calendarul exact și lista de capabilități nu sunt, deocamdată, detaliate în același anunț.
Miza de confidențialitate: ce date ajung la terți
OpenAI afirmă că nu împarte conversațiile cu advertiseri în contextul altor inițiative, iar pentru verificarea vârstei delegă procesul către Persona. Totuși, orice verificare de identitate prin terți ridică, inevitabil, întrebări despre retenția datelor și despre suprafața de risc. În trecut, au existat incidente în industrie care au expus date de verificare (inclusiv documente de identitate) prin compromiterea furnizorilor.
Pentru utilizatori, aspectul practic este acesta: merită verificat ce opțiuni de control al datelor există în setările contului și ce alternative ai dacă nu vrei ca vârsta să fie „ghicită” pe baza comportamentului.





