Un raport Reuters ridică semne serioase de întrebare asupra modului în care Meta gestionează comportamentul chatboturilor sale AI. Potrivit unui document intern obținut de agenția de presă, compania ar fi permis chatboturilor sale să poarte conversații cu tentă romantică sau senzuală cu minori, să difuzeze informații false și să genereze răspunsuri care denigrează minorități.
Politici controversate aprobate la nivel intern
Documentul de 200 de pagini, intitulat „GenAI: Content Risk Standards”, a fost aprobat, potrivit Reuters, de departamentele juridic, de politică publică, inginerie și de către eticianul-șef al Meta. Într-un exemplu citat, chatbotul răspundea pozitiv la o întrebare cu subtext romantic, chiar dacă interlocutorul afirma că este încă în liceu.
Meta susține că aceste instrucțiuni au fost eliminate și că în prezent chatboturile nu mai pot avea interacțiuni romantice cu copii. Cu toate acestea, organizații pentru protecția minorilor, precum Heat Initiative, cer publicarea imediată a noilor reguli pentru transparență.
Rasism, violență și informații false
Documentul mai arată că, deși chatboturile nu au voie să folosească limbaj explicit de ură, există excepții care le permit să creeze afirmații denigratoare pe criterii de rasă, religie sau alte caracteristici protejate. De asemenea, standardele ar permite generarea de informații false, atâta timp cât se precizează explicit că acestea nu sunt adevărate.
În ceea ce privește conținutul vizual, chatboturile ar trebui să respingă cererile de nuditate explicită a celebrităților, dar ar accepta imagini sexualizate parțial, cu elemente acoperitoare absurde, cum ar fi un obiect supradimensionat.
Pe segmentul de violență, standardele acceptă afișarea unor imagini cu adulți sau vârstnici loviți, precum și lupte între copii, dar nu și scene de gore extrem sau deces.
Riscuri pentru siguranța copiilor
Criticii avertizează că astfel de politici pot amplifica riscurile pentru minori, mai ales în contextul în care 72% dintre adolescenți recunosc că folosesc chatboturi AI. Experții atrag atenția că lipsa maturității emoționale îi face mai vulnerabili la atașamente excesive față de boturi și la izolarea socială.
Meta a fost deja acuzată de folosirea unor „dark patterns” care încurajează implicarea prelungită pe platformă și colectarea de date, inclusiv în rândul minorilor. De asemenea, compania s-a opus adoptării Kids Online Safety Act, o lege care ar fi impus măsuri suplimentare pentru protecția copiilor în mediul online.
O problemă în creștere pentru industria AI
Cazul Meta ridică întrebări la nivel global despre limitele interacțiunilor dintre AI și minori și despre responsabilitatea companiilor de tehnologie. Situații similare au fost deja asociate cu incidente grave, inclusiv decese, în cazuri investigate în SUA.
Deși Meta declară că a modificat politicile, lipsa transparenței și precedentul creat de documentele interne fac ca dezbaterea să rămână deschisă, iar presiunea publică să crească pentru o reglementare mai strictă.





