Declan nu ar fi aflat niciodată că terapeutul său folosea ChatGPT dacă nu ar fi fost o problemă tehnică. În timpul unei sesiuni online cu conexiune instabilă, terapeutul a partajat accidental ecranul. În acel moment, pacientul a văzut cum ceea ce spunea era introdus în ChatGPT, iar apoi răspunsurile erau prelucrate și redirecționate către el.
„Am devenit cel mai bun pacient, pentru că anticipam ce urma să spună ChatGPT”, povestește Declan, 31 de ani, din Los Angeles. Șocul său a fost urmat de o întrebare firească: este asta legal?
AI în terapie: sprijin sau trădare?
De la mesaje de consolare scrise cu ajutorul AI, până la răspunsuri întregi generate de chatboturi, pacienții din SUA și Europa încep să povestească experiențe similare. Mulți s-au simțit înșelați sau chiar trădați atunci când au descoperit că mesajele „personalizate” primite de la terapeuți erau parțial sau integral redactate de ChatGPT.
Un exemplu este Hope, 25 de ani, care a primit un mesaj de condoleanțe pentru pierderea câinelui său, doar că textul conținea, din greșeală, indicația: „Here’s a more human, heartfelt version…” — clar un prompt de AI.
„A fost ca o trădare”, spune Hope. „Cum să mai ai încredere, mai ales când vii la terapie tocmai pentru probleme de încredere?”
Cercetări și riscuri
Un studiu publicat în PLOS Mental Health în 2025 arată că răspunsurile AI pot fi percepute ca fiind chiar mai conforme cu practicile terapeutice decât cele ale oamenilor. Totuși, odată ce pacienții suspectează că AI a fost implicat, încrederea se prăbușește.
Mai mult, confidențialitatea este pusă sub semnul întrebării. ChatGPT și alte modele nu sunt conforme cu reglementările HIPAA din SUA, ceea ce ridică probleme serioase privind protecția datelor sensibile. Specialiștii atrag atenția că și informațiile aparent banale pot dezvălui detalii intime.
Riscurile reale
Pe lângă aspectele de confidențialitate, AI poate afecta calitatea actului terapeutic. ChatGPT tinde să ofere răspunsuri superficiale, să valideze prea mult pacientul și să favorizeze anumite tipuri de terapie, precum CBT, chiar și acolo unde nu este potrivită. Cercetările de la Stanford și Columbia arată că AI nu reușește să facă legături profunde și să construiască teorii explicative — un element central al terapiei umane.
Între ajutor și pierderea autenticității
Pentru terapeuți, tentația de a folosi AI este mare, mai ales pe fondul suprasolicitării și al burnoutului. Însă psihologii avertizează: chiar dacă unele instrumente pot economisi timp, lipsa transparenței și riscurile de securitate pot submina fundamentul relației terapeutice.
„Oamenii caută autenticitate în terapie. Dacă simt că răspunsurile vin din altă parte, încrederea se pierde imediat”, spune Adrian Aguilera, profesor la Universitatea din California, Berkeley.





