
Um dos maiores cientistas da computação do mundo passou semanas tentando resolver um problema matemático. A solução surgiu de um lugar improvável: um modelo de inteligência artificial treinado para prever palavras. Donald Knuth — vencedor do Prêmio Turing em 1974, o equivalente ao Nobel da computação — é frequentemente chamado de “Mestre Yoda do Vale do Silício” por sua enorme influência intelectual. Recentemente, relatou um episódio curioso enquanto trabalhava em um problema de combinatória, área da matemática que estuda problemas como diferentes formas de organizar objetos ou analisar redes. Knuth recebeu ajuda inesperada: o sistema de inteligência artificial Claude, da empresa Anthropic, encontrou uma construção matemática que resolveu vários exemplos do problema em que estava trabalhando. O próprio pesquisador descreveu a história em uma nota disponível online. O episódio levanta uma questão: como um programa treinado basicamente para prever palavras pode ajudar a resolver problemas de matemática?
Para entender como isso é possível, é preciso olhar para o tipo de tecnologia por trás desses sistemas. Ferramentas como ChatGPT ou Claude pertencem a uma classe chamada grandes modelos de linguagem — ou large language models (LLMs). Em essência, são sistemas de inteligência artificial treinados lendo enormes quantidades de texto: livros, artigos, páginas da internet e outros documentos. A tarefa fundamental durante o treinamento é simples: aprender a prever qual palavra provavelmente vem depois da outra em uma frase. Por exemplo, ao completar “Se chover, é melhor levar um…”, o sistema aprende que palavras como “guarda-chuva” são mais prováveis do que alternativas aleatórias. Ao repetir esse processo bilhões de vezes, o modelo aprende não apenas vocabulário e gramática, mas também muitos dos padrões de raciocínio presentes nos textos que leu — o que ajuda a explicar por que ele às vezes consegue lidar com perguntas e problemas surpreendentemente complexos.
De onde vem, então, essa aparente habilidade matemática? Parte da resposta está no material usado para treinar esses sistemas. Modelos de linguagem são alimentados com enormes quantidades de texto de diferentes tipos: livros, artigos científicos, textos técnicos, discussões em fóruns de programação e também código de computador. Código é, basicamente, um conjunto de instruções escritas por programadores para que computadores executem tarefas. Curiosamente, código e matemática têm algo importante em comum: ambos seguem regras muito precisas e estruturas rigorosas, nas quais cada passo precisa fazer sentido dentro de um conjunto claro de operações. Ao analisar milhões de exemplos desses textos altamente estruturados, o modelo acaba aprendendo padrões recorrentes de organização do pensamento — como dividir um problema em etapas, testar hipóteses e chegar a conclusões —, o que ajuda a explicar por que consegue lidar com certos tipos de questões matemáticas.
Outra peça importante desse quebra-cabeça é a forma como esses sistemas lidam com problemas mais difíceis. Em vez de tentar dar uma resposta direta, costumam funcionar melhor quando são incentivados a explicar a solução passo a passo, de maneira semelhante a um estudante resolvendo um exercício no papel. Cada etapa escrita passa a fazer parte do texto que o próprio modelo “vê” em seguida, servindo como base para o próximo raciocínio. Na prática, isso funciona como um rascunho de pensamento — algo parecido com um caderno de contas no qual se anotam tentativas, resultados intermediários e pequenas correções de rumo. Ao construir esse rascunho gradualmente, o sistema consegue explorar ideias de forma progressiva, testar diferentes caminhos e ajustar a solução conforme avança. Esse processo ajuda bastante quando o problema exige várias etapas de raciocínio, permitindo que o modelo lide melhor com questões mais complexas.
Apesar dos avanços impressionantes, esses sistemas ainda cometem erros com relativa frequência ao lidar com matemática. A razão principal é que não verificam logicamente cada etapa do raciocínio como um matemático faria. Em vez disso, produzem a continuação mais provável de um argumento com base nos padrões que aprenderam durante o treinamento. Às vezes isso funciona bem, mas em outras situações leva a um problema curioso: o sistema pode apresentar uma solução que parece clara, elegante e perfeitamente plausível — e mesmo assim estar errada. É como um estudante muito criativo que costuma ter boas ideias e explicar bem seu pensamento, mas que ocasionalmente se distrai, pula um passo importante ou comete um pequeno erro de cálculo que compromete o resultado.
Por isso, embora esses modelos já sejam ferramentas úteis para explorar ideias, suas respostas ainda precisam ser verificadas com cuidado quando se trata de matemática mais rigorosa.
No imaginário brasileiro, talvez não exista desafio matemático maior do que resolver uma prova do IME (Instituto Militar de Engenharia) ou do ITA (Instituto Tecnológico de Aeronáutica), exames famosos por seu altíssimo nível de dificuldade. São provas que exigem preparo técnico, criatividade e muito treino. Ainda assim, sistemas como o ChatGPT já conseguem tirar nota máxima em uma prova de matemática do ITA. Resolver exercícios de prova, por mais difíceis que sejam, geralmente envolve aplicar métodos conhecidos a situações bem formuladas, muitas vezes com soluções relativamente curtas, baseadas em uma ideia elegante.
Já a pesquisa matemática é outra história: exige criar ideias completamente novas, explorar um problema por meses ou até anos e, às vezes, inventar conceitos inéditos para descrevê-lo. As soluções podem ocupar páginas e páginas de argumentos. É um tipo de criatividade estrutural muito mais profunda — e, pelo menos por enquanto, algo que sistemas de IA ainda apresentam apenas de forma muito limitada. Por isso, episódios como o relatado por Donald Knuth, em que um sistema ajudou a encontrar uma solução para um problema aberto, acabam sendo surpreendentes.
Isso não significa, porém, que a inteligência artificial seja irrelevante para a matemática de pesquisa — longe disso. Hoje ela já começa a ser usada em várias etapas do trabalho matemático. Sistemas de IA podem, por exemplo, testar rapidamente milhares de exemplos de um problema, algo que levaria muito tempo para um pesquisador fazer manualmente. Também podem sugerir conjecturas — hipóteses matemáticas que ainda não foram demonstradas — ao identificar possíveis padrões em grandes conjuntos de dados matemáticos. Em muitos casos, esses sistemas também ajudam a escrever ou ajustar programas usados em experimentos computacionais, uma parte cada vez mais comum da pesquisa moderna. Tudo isso acelera a fase exploratória da matemática, aquela em que se testam ideias, procuram-se padrões e se formulam novas perguntas. Nesse sentido, a IA começa a funcionar como uma ferramenta de exploração intelectual.
Talvez estejamos apenas no começo de uma nova etapa na relação entre matemática e computação. Ao longo do século 20, os computadores transformaram profundamente áreas como a física e a biologia, permitindo simulações, análises de dados e experimentos que antes seriam impossíveis. Algo semelhante pode estar começando a acontecer na matemática. Ferramentas de inteligência artificial prometem ampliar a capacidade de explorar ideias, testar hipóteses e procurar padrões em problemas complexos. Ao mesmo tempo, o coração da matemática continua sendo humano: formular perguntas realmente interessantes, construir novas teorias e demonstrar resultados com rigor. A criatividade conceitual e o julgamento crítico que movem a disciplina ainda dependem de pessoas.
Americo Cunha Jr é pesquisador do Laboratório Nacional de Computação Científica (LNCC) e professor associado do Departamento de Matemática Aplicada da Universidade do Estado do Rio de Janeiro (UERJ). Seus trabalhos de pesquisa combinam sistemas dinâmicos e técnicas de inteligência artificial para descrever fenômenos complexos
