Google DeepMind a anunțat luni că o versiune avansată a modelului său de inteligență artificială Gemini a atins nivelul de performanță echivalent cu medalia de aur la Olimpiada Internațională de Matematică (IMO). Modelul AI a rezolvat cinci dintre cele șase probleme de matematică extrem de dificile și a obținut 35 din 42 de puncte, peste pragul oficial pentru aur.
Rezultat validat oficial și fără traducere în limbaje tehnice
Este pentru prima dată când un model AI primește o evaluare oficială la nivel de aur din partea organizatorilor IMO. Gemini a rezolvat problemele direct în limbaj natural, fără a necesita conversia în limbaje de programare specializate sau interpretarea rezultatelor de către experți umani, așa cum s-a întâmplat cu sistemele anterioare.
Performanța obținută în 2025 reprezintă un progres semnificativ față de rezultatele din 2024, când sistemele AlphaProof și AlphaGeometry au obținut doar medalie de argint, fiind dependente de intervenția umană pentru formularea și interpretarea problemelor.
„Gândire paralelă” și raționament matematic avansat
Noul model, numit Gemini Deep Think, utilizează o metodă de “gândire paralelă”, explorând simultan mai multe trasee de rezolvare înainte de a ajunge la o soluție finală. Potrivit CEO-ului DeepMind, Demis Hassabis, modelul a generat demonstrații matematice riguroase direct din enunțurile oficiale, în cadrul timpului standard al competiției (4,5 ore).
Președintele IMO, prof. dr. Gregor Dolinar, a lăudat claritatea și precizia soluțiilor oferite de AI, declarând că acestea au fost „uimitoare din multe puncte de vedere” și „ușor de urmărit” pentru corectori.
OpenAI criticat pentru lipsa transparenței
Reușita Google DeepMind vine pe fondul unei tensiuni crescânde în industria AI, în special în privința modului în care sunt comunicate performanțele sistemelor de inteligență artificială. Spre deosebire de DeepMind, care a așteptat validarea oficială a rezultatelor înainte de anunț, OpenAI a publicat anterior rezultatele proprii fără a participa la procesul oficial de evaluare IMO.
OpenAI a fost criticat pentru lipsa de transparență, alegând să își autoevalueze modelul cu ajutorul unui grup de foști participanți IMO. Gestul a fost considerat de mulți ca lipsit de credibilitate și de respect față de competiția oficială și participanții umani.
„Google DeepMind a acționat cu integritate”, a scris un utilizator pe platforma X, subliniind contrastul cu abordarea OpenAI. Reacțiile comunității AI au fost în general pozitive față de Google, considerând succesul Gemini ca o confirmare a valorii colaborării transparente între cercetare și competiție academică.
Implicații pentru viitorul inteligenței artificiale
Succesul Gemini Deep Think arată că modelele AI pot acum să raționeze logic în mod autonom în domenii extrem de abstracte, cum este matematica olimpică, fără a depinde de traduceri formale sau intervenții umane. Aceasta reprezintă un pas semnificativ în direcția dezvoltării unor agenți AI capabili de gândire avansată și adaptabilă, cu aplicații potențiale în educație, știință și inginerie.





