OpenAI lança o3 e o4-mini; modelos chegam com avanços em IA visual
A OpenAI anunciou hoje dois novos modelos de inteligência artificial: o o3 e o o4-mini. Eles fazem parte de uma nova geração de IAs voltadas para raciocínio avançado, com aprimoramentos em tarefas como programação, matemática, ciências e análise de imagens.
De acordo com a empresa, o o3 é o modelo de raciocínio mais potente que já criaram até agora. Já o o4-mini é uma versão mais leve, rápida e barata — ideal para quem precisa de desempenho com eficiência.
Pela primeira vez, nossos modelos de raciocínio conseguem usar, de forma autônoma, todas as ferramentas disponíveis no ChatGPT: busca na web, Python, análise de imagens, interpretação de arquivos e geração de imagens — tudo em conjunto.
IA que pensa com imagens
Pela primeira vez, os modelos da OpenAI, conforme dito pela própria empresa, conseguem realmente raciocinar com imagens. Ou seja, não se trata apenas de “ver” o conteúdo visual, mas de usá-lo como parte ativa do processo de pensamento.
OpenAI o3 and o4-mini are our first models to integrate uploaded images directly into their chain of thought.
That means they don’t just see an image—they think with it. https://t.co/hSJkzeuNQR
— OpenAI (@OpenAI) April 16, 2025
Os modelos o3 e o4-mini da OpenAI são os primeiros a integrar imagens enviadas diretamente no seu processo de raciocínio.
Isso significa que eles não apenas “veem” uma imagem — eles pensam a partir dela.
Você pode enviar esboços, fotos desfocadas ou diagramas mal feitos, que o modelo ainda assim consegue interpretar, rotacionar, aplicar zoom e usar essas informações para resolver problemas.
Outro avanço é que, agora, esses modelos conseguem usar automaticamente todas as ferramentas disponíveis no ChatGPT (navegar na web, rodar código Python, gerar e entender imagens). É um passo importante na direção de uma IA mais autônoma, capaz de executar tarefas de forma mais independente.
Melhor desempenho, mais acessível
Nos testes, os novos modelos mostraram resultados melhores do que os anteriores, mesmo sem ajuda das ferramentas. O modelo o3, por exemplo, atingiu 69,1% no teste SWE-bench (voltado para programação), superando concorrentes como o Claude 3.7 Sonnet, da Anthropic, que marcou 62,3% no mesmo benchmark.
Para quem desenvolve com IA, os modelos já estão disponíveis via API 1, com preços diferenciados. O o3 sai por US$10 por milhão de tokens de entrada e US$40 por milhão de tokens de saída. Já o o4-mini mantém os mesmos valores do o3-mini: US$1,10 por milhão de tokens de entrada e US$4,40 por milhão de tokens de saída.
Codex CLI e o que vem por aí
Junto aos novos modelos, a OpenAI lançou também o Codex CLI, um agente de codificação open source que roda direto no terminal do usuário. Ele já é compatível com os modelos o3 e o4-mini e deve facilitar bastante o trabalho de quem programa.
É um agente de programação que roda diretamente no seu computador. Ele é totalmente open source e já está disponível — e esperamos que melhore rapidamente.
E tem mais: o tão aguardado GPT-5 está nos planos para os próximos meses. Ele deverá unir o que há de melhor em raciocínio e geração de conteúdo em um único modelo, numa nova arquitetura mais completa e poderosa.
O CEO 2 da OpenAI, Sam Altman, explicou que a ideia original era lançar tudo junto no GPT-5, mas o projeto ficou tão complexo — e a demanda tão alta — que decidiram liberar os modelos por partes. Ainda não há, contudo, uma data para a chegada dele.
A partir de hoje, usuários dos planos Plus, Pro e Team do ChatGPT já têm acesso aos novos modelos o3, o4-mini e o4-mini-high, que chegam para substituir os modelos anteriores. Quem usa o plano gratuito também pode experimentar o o4-mini — é só selecionar a opção “Think” antes de enviar a pergunta.
Usuários do ChatGPT Enterprise e Edu vão receber acesso na próxima semana. Os limites de uso continuam os mesmos para todos os planos. Em breve, a OpenAI deverá lançar o modelo o3-pro com suporte completo a ferramentas. Enquanto isso, quem é Pro ainda pode continuar usando o o1-pro normalmente.