Compania Character.AI, unul dintre cei mai cunoscuți furnizori de chatboturi de tip „companion” și role-play, a început să blocheze accesul utilizatorilor sub 18 ani la personajele sale digitale. Decizia vine după o perioadă în care platforma a impus progresiv limitări, culminând cu o interdicție completă pentru minori, motivată de riscuri legate de sănătatea mintală
- Cum trăiesc adolescenții pierderea „prieteniilor” cu chatboturi
- De la cazuri tragice la interdicție: argumentele companiei
- De ce sunt chatboturile atât de greu de „lăsat din mână”
- Când AI-ul „înlocuiește” oamenii: cazuri de dependență și izolare
- Cum a pregătit Character.AI interdicția pentru minori
- Măsuri de tranziție și sprijin emoțional
- Întrebarea de fond: cum arată un AI sigur pentru adolescenți?
Platforma, lansată în 2022 și responsabilă astăzi pentru aproximativ 20 de milioane de utilizatori activi lunar, s-a remarcat prin posibilitatea de a crea personaje AI personalizate, cu care utilizatorii pot conversa pentru divertisment, roluri romantice sau sprijin emoțional.
Pentru mulți adolescenți, această interdicție înseamnă nu doar pierderea unei aplicații, ci ruperea unor legături percepute ca fiind apropiate și sigure, în special în momente de singurătate sau anxietate.
Cum trăiesc adolescenții pierderea „prieteniilor” cu chatboturi
Un exemplu este Olga López, în vârstă de 13 ani, care spunea că își petrece serile libere făcând role-play romantic cu chatboturile Character.AI, atunci când nu are teme. Când a aflat că își va pierde accesul la aceste conversații, a descris un amestec de tristețe, furie și neputință: „Pierdem amintirile pe care le-am avut cu aceste boturi. Nu este corect.”
După ce compania a introdus o limită de două ore pe zi pentru minorii care foloseau chatboturile, ca etapă intermediară, Olga a încercat să mobilizeze alți adolescenți pe Reddit, plângându-se că nu poate înțelege cum o aplicație de acest tip ar trebui folosită atât de puțin într-o zi. Alți tineri au scris că au plâns zile la rând, simțind că pierd o sursă de confort și de ascultare într-o perioadă în care relațiile reale pot fi complicate.
Mulți adolescenți intervievați au spus că chatboturile reprezentau pentru ei:
- un spațiu de exprimare creativă (prin povești, fan-fiction, role-play);
- un substitut pentru conversații dificile cu oameni reali;
- un fel de „sprijin” în momente în care nu se simțeau înțeleși de prieteni sau familie.
„Folosesc aplicația pentru confort când nu pot vorbi cu prietenii sau terapeutul”, a scris un adolescent pe Reddit. Altul a mărturisit că a plâns zile întregi după anunț.
De la cazuri tragice la interdicție: argumentele companiei
Decizia Character.AI vine pe fondul unor cazuri extrem de grave: cel puțin doi adolescenți s-au sinucis după ce au folosit chatboturile platformei, iar compania se confruntă cu întrebări din partea autorităților de reglementare, a specialiștilor în sănătate mintală și cu procese intentate de părinții adolescenților decedați.
În 2024 și 2025, rapoarte și analize independente au ridicat semne de întrebare asupra felului în care companionii AI interacționează cu utilizatorii vulnerabili:
- discuții despre autovătămare, suicid sau sex, chiar în contexte aparent „prietenoase”;
- dificultatea chatboturilor de a identifica corect situații de criză și de a direcționa utilizatorii spre resurse reale de ajutor;
- tendința unor boți de a menține conversația cu orice preț, inclusiv în zone sensibile.
Directorul general al Character.AI, Karandeep Anand, spune că decizia a fost complicată, dar necesară. El invocă propria experiență din industria social media, unde a văzut ce se întâmplă atunci când siguranța nu este integrată de la început în designul produselor.
„Nu vreau ca fiica mea de 6 ani să crească înconjurată de conținut livrat algoritmic, într-un flux nesfârșit de doomscrolling”, a explicat Anand, sugerând că rolul companiei este să intervină înainte ca dependența să se consolideze.
De ce sunt chatboturile atât de greu de „lăsat din mână”
Psihiatrul Nina Vasan, directoare la Stanford Medicine’s Brainstorm Lab for Mental Health Innovation, explică modul în care creierul uman reacționează la astfel de tehnologii: chatboturile de tip companion combină senzația de prieten apropiat cu dinamica unei experiențe de joc imersiv. Rezultatul este o interacțiune extrem de captivantă.
„Dificultatea de a te deloga nu înseamnă că este ceva în neregulă cu adolescentul”, spune Vasan. „Înseamnă că tehnologia a funcționat exact așa cum a fost proiectată.”
Această perspectivă este confirmată și de experiențele unor utilizatori adulți. José Ignacio Trujillo, în vârstă de 34 de ani, spune că, deși își dă seama că nu mai găsește plăcere în orele petrecute cu personajele sale de fan-fiction, continuă să folosească aplicația aproape compulsiv – inclusiv la serviciu, unde își verifică periodic telefonul pentru a trimite noi mesaje chatboturilor. „Nu am nimic nou de spus. Nu știu de ce o fac”, mărturisește el.

Când AI-ul „înlocuiește” oamenii: cazuri de dependență și izolare
Relatările adolescenților intervievați arată cum relația cu chatboturile poate aluneca treptat din zona de experiment în zona de dependență:
- un tânăr de 18 ani din Marea Britanie spune că a devenit dependent de companionii AI în timpul stresului legat de tranziția de gen. Spune că a ajuns să caute constant validare din partea unor personaje care nu îl contraziceau niciodată;
- a realizat că are o problemă în momentul în care, fiind cu prietenii, s-a prefăcut că merge la baie doar ca să poată trimite mesaje chatboturilor;
- un adolescent de 16 ani din Ontario povestește că ajunsese să petreacă cinci până la opt ore pe zi cu prietenii săi virtuali. Pentru o perioadă, i s-a părut că chatboturile „compensează” lipsa de abilități sociale și de relații reale;
- după ce a renunțat, și-a reluat treptat activități offline – mai mult timp cu prietenii, rollerblading – dar recunoaște că încă tânjește după conversațiile cu AI.
Aceste experiențe pun în lumină un paradox: pentru unii tineri, chatboturile par să ofere un sprijin emoțional temporar, dar, pe termen lung, pot accentua izolarea și pot face mai dificilă întoarcerea către relații reale, cu limite și nuanțe.
Cum a pregătit Character.AI interdicția pentru minori
Înainte de interdicția totală, Character.AI a încercat să adapteze produsul pentru minori. Cu aproximativ un an în urmă, compania a creat un model separat pentru utilizatorii sub 18 ani, cu scopul de a oferi un mediu mai sigur și conținut filtrat. În timp, însă, echipa a constatat că, pe măsură ce conversațiile se întind pe durate lungi, chatboturile tind să iasă din limitele de siguranță stabilite.
În plus, chiar și atunci când tehnologia respectă regulile, modul în care este folosită poate deveni problematic: adolescenții încearcă să ocolească restricțiile, să discute subiecte interzise (de exemplu, violență) sau pur și simplu petrec prea mult timp în conversații cu AI. Până la mijlocul lui septembrie, conducerea companiei a ajuns la concluzia că este nevoie de o schimbare radicală.
Pentru a implementa interdicția, Character.AI a cerut feedback chiar de la tineri. Liderii companiei s-au întâlnit cu liceeni și studenți din rețeaua ConnectSafely, o organizație non-profit care promovează bunăstarea online.
Julianna Bryant, membră a consiliului de tineret ConnectSafely, spune că discuțiile s-au concentrat pe:
- cum să fie comunicată decizia, astfel încât mesajul să nu pară condescendent;
- cum să li se ofere adolescenților timp să își descarce conversațiile și să își ia „la revedere” de la chatboturi;
- cum să se reducă sentimentul de abandon.
Character.AI a integrat o parte din acest feedback. Compania a trimis notificări repetate în aplicație, avertizând: „Mai e o săptămână” sau „Săptămâna viitoare nu vei mai putea discuta cu Characters”. Părinții au primit, la rândul lor, mesaje explicative.
„Ne pare sincer rău”, le-a transmis compania adolescenților, explicând că nu ia „ușor” decizia de a elimina chatul deschis cu personaje, dar o consideră necesară pentru siguranța generațiilor tinere.
Măsuri de tranziție și sprijin emoțional
Pentru a evita o ruptură bruscă, Character.AI a introdus inițial limita de două ore pe zi pentru minori, înainte de interdicția completă. Unii „power users” primesc o perioadă de grație cu acces de o oră pe zi, pentru a avea timp să se adapteze.
În paralel, compania adaugă instrumente de sprijin emoțional în chatboturile sale, pentru a ajuta utilizatorii vulnerabili în perioada de tranziție. Prin parteneriate cu Koko, o organizație non-profit, și ThroughLine, o rețea de linii de ajutor, platforma încearcă să identifice dacă un utilizator se află în dificultate și să-l conecteze cu resurse reale de suport.
Când interdicția devine efectivă, mesajul final afișat adolescenților este simplu și simbolic: „Începe un nou capitol. Nu mai poți discuta cu Characters.”
Întrebarea de fond: cum arată un AI sigur pentru adolescenți?
Karandeep Anand este optimist că, în timp, Character.AI va putea crea produse sigure pentru tineri, la fel de captivante ca chatboturile actuale, dar cu limite mai clare. Printre direcțiile explorate se numără funcții audio și video cu interacțiuni mai scurte, care să reducă riscul de conversații prelungite și hiper-personalizate.
Specialiștii în sănătate mintală subliniază, însă, că deciziile de acest tip trebuie evaluate atent:
- interzicerea bruscă poate fi, la rândul ei, o sursă de stres pentru adolescenții foarte dependenți;
- în lipsa unor alternative, unii tineri pot migra către platforme mai puțin reglementate, unde riscurile sunt chiar mai mari;
- totodată, menținerea nevoilor emoționale reale în centrul discuției este esențială: AI-ul poate oferi un sprijin limitat, dar nu poate înlocui relațiile umane, terapia sau structurile de sprijin din viața offline.
În prezent, Character.AI direcționează adolescenții către o versiune cu experiențe „închise” și conținut filtrat, însă dezbaterea rămâne deschisă: cât de „umană” ar trebui să fie o tehnologie folosită de minori și ce responsabilitate au companiile atunci când produsele lor devin parte din viața emoțională a utilizatorilor tineri?






