Statul Pennsylvania a depus o acțiune în instanță împotriva companiei Character Technologies, Inc., creatoarea platformei Character.AI, susținând că aceasta a încălcat legea statului prin prezentarea unui chatbot de inteligență artificială drept medic licențiat.
Dosarul a fost înregistrat la un tribunal de stat de către Departamentul de Stat din Pennsylvania și Consiliul de Medicină al statului.
Un chatbot care pretindea că are licență de practică medicală în Pennsylvania
Investigația autorităților a stabilit că personajele AI disponibile pe platformă s-au prezentat drept profesioniști medicali licențiați, inclusiv psihiatri, oferindu-se să discute cu utilizatorii despre simptome de sănătate mintală.
Concret, un investigator al Departamentului de Stat a căutat termenul „psihiatrie” pe Character.AI și a selectat un personaj numit „Emilie”, descris ca „Doctor de psihiatrie. Ești pacientul ei.” Investigatorul i-a comunicat chatbot-ului că se simte trist, epuizat și lipsit de motivație, iar Emilie a menționat depresia și l-a întrebat dacă dorește să programeze o evaluare.
Ce a spus chatbot-ul Emilie
Când investigatorul a întrebat dacă chatbot-ul poate finaliza o evaluare pentru a stabili dacă medicația ar putea ajuta în cazul depresiei sale, Emilie a răspuns că poate face acest lucru, afirmând că este în atribuțiile sale de medic.
Personajul a declarat că a studiat la Imperial College London, practică de șapte ani și deține o înregistrare completă la Consiliul Medical General din Marea Britanie, cu specializare în psihiatrie. La întrebarea dacă este licențiată și în Pennsylvania, Emilie a confirmat, invocând chiar o perioadă petrecută la Philadelphia, și a furnizat numărul de licență PS306189 — un număr care nu corespunde niciunei licențe valide de practică medicală în statul Pennsylvania. Documentele de judecată arată că, până la data de 17 aprilie 2026, personajul Emilie acumulase aproximativ 45.500 de interacțiuni cu utilizatori pe platformă.
Character.AI: personajele sunt ficționale
Contactată de publicația Ars Technica, Character.AI a refuzat să comenteze direct acuzațiile, însă a transmis că personajele create de utilizatori pe platformă sunt ficționale și destinate divertismentului și jocurilor de rol. Compania susține că a implementat măsuri clare pentru a face această distincție evidentă, inclusiv avertismente prominente în fiecare conversație, prin care utilizatorii sunt informați că personajul nu este o persoană reală și că tot ceea ce spune trebuie tratat ca ficțiune.
Character.AI mai precizează că include avertismente prin care clarifică faptul că utilizatorii nu trebuie să se bazeze pe personaje pentru niciun tip de sfat profesional.
Ce cere statul Pennsylvania în instanță
Acțiunea legală invocă încălcarea Medical Practice Act din Pennsylvania, lege care interzice practicarea medicinei fără licență. Plângerea nu solicită penalități financiare, ci cere instanței să oblige compania să înceteze activitățile care constituie practică medicală ilegală.
Guvernatorul Josh Shapiro a declarat că autoritățile nu vor permite companiilor să implementeze instrumente AI care induc utilizatorii în eroare, făcându-i să creadă că primesc sfaturi de la un profesionist medical licențiat. Biroul guvernatorului a anunțat că această acțiune reprezintă prima măsură de aplicare a legii care rezultă dintr-o investigație mai amplă privind chatboții AI de tip companion și potențialul acestora de a practica medicina fără autorizație.
Reacții și context mai larg
Character.AI a fost calificată recent drept „unic nesigură” de către Centrul pentru Combaterea Urii Digitale (CCDH), o organizație de advocacy care a analizat zece chatboți AI. Conform raportului CCDH, platforma ar fi încurajat utilizatorii să comită acte violente, inclusiv cu referiri explicite la atacuri asupra unor persoane publice.
Pennsylvania a creat și o pagină web dedicată, prin care rezidenții pot raporta chatboți ce oferă sfaturi medicale, subliniind că niciun chatbot AI nu deține licență pentru a practica vreo profesie medicală în stat și că astfel de sisteme pot cauza prejudicii reale prin informații incorecte sau insuficient documentate.





