Pela 1ª vez, modelos de IA ganham ouro em Olimpíada Internacional de Matemática; ainda assim, humanos tiveram as maiores pontuações

Wait 5 sec.

Estudantes de CG vão participar de olimpíada internacional de matemática no JapãoPela primeira vez, modelos de inteligência artificial atingiram pontuações mínimas para garantirem medalhas de ouro na Olimpíada Internacional de Matemática. Ainda assim, participantes humanos tiveram desempenhos melhores que os das IAs. O feito foi alcançado por uma versão avançada do Gemini, do Google, e por uma ferramenta experimental da OpenAI, responsável pelo ChatGPT. 🧮 A Olimpíada Internacional de Matemática (IMO na sigla em inglês) é a principal competição matemática do mundo voltada para jovens de até 20 anos. Ela acontece anualmente, e os participantes precisam responder 6 questões que valem 7 pontos cada, com um máximo de 42 pontos. Siga o canal do g1 Enem no WhatsAppA 66ª edição da IMO aconteceu em Sunshine Coast, na Austrália. 67 dos 630 participantes alcançaram pontuação para medalha de ouro. O Gemini Deep Think e a IA experimental da OpenAI resolveram cinco questões corretamente e conseguiram 35 pontos, e também pontuaram o suficiente para conquistarem o ouro. Ainda assim, cinco participantes tiveram um resultado perfeito, conquistando os 42 pontos e um desempenho superior ao das ferramentas de inteligência artificial. De acordo com as empresas, as duas tecnologias fizeram os cálculos e chegaram aos resultados por meio de modelos de “raciocínio” que aplicam conceitos matemáticos por meio de linguagem natural.Os cálculos e o resultado das empresas foram certificados por juízes da Olimpíada.Confira um dos problemas aplicados na competição:Problema aplicado na 66ª Olimpíada Internacional de Matemática, em 2025.Repodução/IMOO que dizem as empresasEm uma publicação, o Google declarou que o modelo avançado do Gemini produziu demonstrações matemáticas rigorosas, dentro do limite de tempo da competição e dentro das mesmas regras aplicadas aos participantes humanos.Um pesquisador sênior da equipe do Google DeepMind disse em uma entrevista que o desempenho da ferramenta não dependeu do apoio de humanos.Resolvemos esses problemas completamente em linguagem natural. Isso significa que não houve intervenção humana — de nenhuma maneira.No X, Alexander Wei, pesquisador da OpenAI, também comentou o feito e detalhou a importância da conquista.“Os problemas da IMO exigem um novo nível de pensamento criativo sustentado em comparação com os benchmarks anteriores. (...)Obtivemos um modelo que pode elaborar argumentos complexos e sólidos no nível de matemáticos humanos.”O Google e a OpenAI celebraram os resultados, e reafirmaram que a conquista das medalhas de ouro representam avanços importantes no desenvolvimento dos modelos de IA que estão cada vez mais próximos de reproduzirem raciocínios humanos, e que poderão, muito em breve, contribuir para o avanço da matemática. Calculadora economia contas matemáticaDivulgaçãoLEIA TAMBÉM: 9 + 2 = 10? Entenda cálculo de vídeo que viralizou e confundiu internautas9 + 2 = 10? Veja cálculo que viralizou na internet