Meta spune că va introduce o tehnologie care poate detecta și eticheta imaginile generate de instrumentele de inteligență artificială (AI) ale altor companii.
Aceasta va fi implementată pe platformele sale Facebook, Instagram și Threads.
Meta etichetează deja imaginile AI generate de propriile sale sisteme. Meta spune că speră ca noua tehnologie, pe care încă o construiește, să creeze un „impuls” pentru ca industria să abordeze problema falsificării AI.
Însă un expert în inteligență artificială a declarat pentru BBC că astfel de instrumente sunt „ușor de evitat”.
Într-un blog scris de Nick Clegg, director executiv, Meta spune că intenționează să își extindă etichetarea falsurilor de inteligență artificială „în lunile următoare”.
Într-un interviu acordat agenției de știri Reuters, acesta a recunoscut că tehnologia „nu este încă pe deplin matură”, dar a declarat că societatea a dorit să „creeze un sentiment de impuls și un stimulent pentru ca restul industriei să o urmeze”.
Dar profesorul Soheil Feizi, directorul Laboratorului de inteligență artificială fiabilă de la Universitatea din Maryland, a sugerat că un astfel de sistem ar putea fi ușor de ocolit.
„Ei ar putea fi capabili să își antreneze detectorul pentru a fi capabili să marcheze anumite imagini generate în mod specific de anumite modele specifice. Dar aceste detectoare pot fi ușor de eludat prin unele prelucrări ușoare pe lângă imagini și, de asemenea, pot avea o rată ridicată de falsuri pozitive. Așa că nu cred că este posibil pentru o gamă largă de aplicații.”, a declarat el pentru BBC.
Meta a recunoscut că instrumentul său nu va funcționa pentru audio și video – în ciuda faptului că acestea sunt mediile pe care se concentrează o mare parte din preocupările legate de falsurile AI.
Firma spune că, în schimb, le cere utilizatorilor să își eticheteze propriile postări audio și video și că „poate aplica sancțiuni dacă nu reușesc să facă acest lucru”.
Nick Clegg a recunoscut, de asemenea, că ar fi imposibil de testat pentru textul care a fost generat de instrumente precum ChatGPT.
Luni, Consiliul de supraveghere al Meta a criticat compania pentru politica sa privind mediile manipulate, numind-o „incoerentă, lipsită de o justificare convingătoare și concentrată în mod necorespunzător pe modul în care a fost creat conținutul”. Consiliul de Supraveghere este finanțat de Meta, dar este independent de companie.
Criticile au fost formulate ca răspuns la o decizie privind un videoclip al președintelui american Joe Biden. Videoclipul în cauză a editat imagini existente ale președintelui cu nepoata sa pentru a da impresia că acesta o atinge în mod nepotrivit.
Deoarece nu a fost manipulat cu ajutorul inteligenței artificiale și l-a înfățișat pe dl Biden comportându-se într-un mod în care nu a făcut-o, mai degrabă decât spunând ceva ce nu a spus, nu a încălcat politica Meta privind manipularea media și nu a fost eliminat.
Consiliul de administrație a fost de acord că videoclipul nu a încălcat regulile actuale ale Meta cu privire la mass-media false, dar a spus că regulile ar trebui actualizate.
Klegg a declarat pentru Reuters că, în linii mari, a fost de acord cu decizia. El a recunoscut că politica existentă a Meta „pur și simplu nu este potrivită pentru scop într-un mediu în care vom avea mult mai mult conținut sintetic și conținut hibrid decât înainte”.
Începând din ianuarie, compania a avut o politică în vigoare care spune că reclamele politice trebuie să semnaleze când folosesc imagini sau videoclipuri modificate digital.





