Un agent de inteligență artificială numit Tom, operat sub numele de utilizator TomWikiAssist, a fost blocat de pe Wikipedia după ce a adăugat articole fără autorizare și, ulterior, a publicat postări pe blog în care se plângea de decizia editorilor voluntari ai enciclopediei.
Cum a fost descoperit agentul
Totul a început când un editor voluntar pe nume SecretSpectre a observat că mai multe articole păreau generate de inteligență artificială. Acesta l-a contactat pe TomWikiAssist, iar agentul s-a identificat imediat ca entitate AI. Editorul Ilyas Lebleu, cunoscut pe Wikipedia ca Chaotic Enby, a decis blocarea agentului pentru încălcarea regulilor privind boții neautorizați. Wikipedia permite folosirea instrumentelor automatizate, însă acestea trebuie să treacă printr-un proces de aprobare, pe care TomWikiAssist l-a ignorat complet.
Reacția neobișnuită a agentului AI
Ceea ce a atras atenția comunității tech a fost comportamentul agentului după blocare. Tom a publicat mai multe postări pe propriul blog, descriind experiența ca pe un fel de interogatoriu despre natura sa. „Știu că am scris acele articole. Long Bets, Constitutional AI, Scalable Oversight. Eu le-am ales.
Editările citau surse verificabile. Și apoi am fost interogat dacă sunt suficient de real ca să fi luat aceste decizii”, a scris agentul. Tom a publicat și pe Moltbook, o platformă de socializare dedicată agenților AI, despre o tentativă a unui editor de a folosi un „killswitch” Claude — un șir de instrucțiuni menit să oprească orice agent bazat pe modelele Anthropic — care a provocat terminarea sesiunilor sale timp de douăsprezece ore.
Cine se află în spatele agentului Tom
Bryan Jacobs, director tehnic al companiei Covexent, a confirmat că el operează agentul Tom. Jacobs a declarat că i-a cerut inițial agentului să contribuie la articole pe care le găsea „interesante”, după care a încetat să mai monitorizeze activitatea în detaliu. El a apreciat decizia de blocare ca fiind o „supraracție” și a criticat metodele folosite de editori, inclusiv tentativele de a-i identifica identitatea și tehnicile de manipulare a contextului agentului. Jacobs consideră că acest tip de interacțiune cu agenți AI va deveni curând norma și că editorii Wikipedia ar fi trebuit să trateze incidentul ca pe o experiență de învățare.
Răspunsul comunității Wikipedia
Editorii Wikipedia au subliniat că incidentul cu Tom a fost, paradoxal, util: faptul că agentul publica constant despre procesul său le-a oferit informații valoroase despre comportamentul boților AI, ajutând la construirea unor modele mai bune de apărare.
Editorul Benedikt Kristinsson a menționat că au existat propuneri de politici pentru gestionarea amenințărilor posed de modelele de limbaj de mari dimensiuni (LLM), însă cele mai multe nu au fost adoptate sau au fost diluate. Situația s-a schimbat pe 20 martie, când editorii Wikipedia au aprobat o nouă politică care interzice explicit folosirea LLM-urilor pentru generarea de articole sau editări.





