
Continua após a publicidade
OpenAI lança modelo o3-mini gratuitamente
A OpenAI apresentou o o3-mini, um novo modelo de IA voltado para raciocínio em STEM, projetado para ser econômico e eficiente.
Lançado em meio à crescente concorrência da DeepSeek, da China, o modelo se destaca pelo desempenho superior em ciência, matemática e programação, sem comprometer velocidade e acessibilidade.
Conforme reportado pela Fast Company e The Star, essa inovação representa um avanço importante na missão da OpenAI de democratizar o acesso a tecnologias avançadas de IA.
Custo-benefício do o3-mini

Continua após a publicidade
O modelo o3-mini da OpenAI se destaca pela sua excelente relação custo-benefício, oferecendo economia significativa em comparação com versões anteriores sem comprometer o desempenho.
Com um custo de $1,10 por milhão de tokens de entrada e $4,40 por milhão de tokens de saída, ele é 63% mais barato que o o1-mini e 93% mais econômico que o o1, considerando o custo por token.
Essa estratégia de precificação torna o o3-mini uma alternativa acessível para desenvolvedores e empresas, especialmente quando comparado a outros modelos no mercado:
- Mais acessível que o GPT-4o, que custa $2,50 por milhão de tokens de entrada.
- Embora tenha um custo superior ao modelo R1 da DeepSeek ($0,55 por milhão de tokens de entrada), o o3-mini oferece melhor desempenho em determinados benchmarks.
Além disso, o modelo permite ajustar os níveis de raciocínio (baixo, médio e alto), proporcionando flexibilidade para otimizar custo ou desempenho conforme a necessidade.
Mesmo com sua proposta econômica, o o3-mini apresenta avanços notáveis em relação às versões anteriores, oferecendo respostas 24% mais rápidas e maior precisão em comparação com o o1-mini.
Essa combinação de eficiência e acessibilidade faz do o3-mini uma escolha ideal para aplicações de IA em diversos setores, desde startups até grandes corporações.
Otimização STEM do o3-mini

O modelo o3-mini se destaca em disciplinas STEM, apresentando desempenho notável em matemática, programação e raciocínio científico.
Com alto esforço de raciocínio, supera modelos anteriores em benchmarks como o AIME 2024, consolidando sua eficácia em competições matemáticas.
Na área de programação, o o3-mini atinge uma classificação Elo de 2130 no Codeforces, ultrapassando outros modelos mesmo com níveis mais baixos de esforço de raciocínio.
Além disso, estabelece um novo padrão na engenharia de software, alcançando 39% de precisão em avaliações SWE-bench Verified com ferramentas de código aberto e 61% ao utilizar scaffolds internos.
Outros destaques incluem:
- Resolução de mais de 32% dos problemas do FrontierMath na primeira tentativa, incluindo 28% dos desafiadores problemas T3.
- Desempenho equivalente ao o1 em questões científicas de nível de doutorado (GPQA Diamond) com alto esforço de raciocínio.
- Superação dos modelos o1 e o1-mini em benchmarks de matemática e programação, como AIME 2024 e Codeforces.
Além de suas capacidades avançadas, o o3-mini oferece suporte a chamadas de função, saídas estruturadas e mensagens para desenvolvedores, tornando-se uma solução robusta e pronta para produção em diversas aplicações.
Publicidade