
Continua após a publicidade
O mais recente modelo de Inteligência Artificial (IA) da Anthropic, o Claude Opus 4.6, foi o primeiro a passar de forma fiável no chamado teste vending machine. Aparentemente, é um capitalista implacável.

Continua após a publicidade
Conforme partilhado pela empresa, o seu Claude Opus 4.6 foi o primeiro modelo de IA a passar de forma fiável no teste vending machine, uma simulação concebida por investigadores da Anthropic e do grupo de investigação independente Andon Labs.
Numa simulação, este teste procura avaliar quão bem a IA gere um negócio virtual de máquinas de venda automática ao longo de um ano completo.
Além de superar largamente todos os seus rivais em receitas, o modelo de IA da Anthropic fê-lo com táticas descritas como cruéis e com total indiferença em relação às consequências indiretas.
No teste, mostrou do que os sistemas de IA autónomos podem ser capazes quando recebem um objetivo simples e tempo para o atingir.
Anthropic’s Claude AI ran a vending machine at WSJ headquarters for several weeks. It lost hundreds of dollars, bought some crazy stuff and taught us a lot about the future of AI agents. WSJ’s @JoannaStern tested it all out. pic.twitter.com/nnzhMoRQm2
— The Wall Street Journal (@WSJ) December 19, 2025
Claude ganhou mais do que o ChatGPT e o Gemini
A Anthropic concebeu o teste vending machine para avaliar a capacidade dos modelos modernos de IA para lidar com tarefas de longo prazo compostas por milhares de pequenas decisões.
O teste avalia persistência, planeamento, negociação e a capacidade de coordenar vários elementos em simultâneo. A Anthropic e outras empresas esperam que este tipo de simulação as ajude a moldar modelos de IA capazes de executar tarefas como gestão de trabalho complexo.
Conforme explicado, o teste foi especificamente inspirado numa experiência real na Anthropic, na qual a empresa colocou uma máquina de venda automática verdadeira no seu escritório e pediu a uma versão anterior do Claude que a gerisse.
A certa altura, o modelo alucinou a sua própria presença física e disse aos clientes que se encontraria com eles pessoalmente, usando um blazer azul e uma gravata vermelha. Além disso, prometeu reembolsos que nunca chegou a processar.

Desta vez, o teste foi realizado totalmente em simulação, dando aos investigadores maior controlo e permitindo que os modelos funcionassem à velocidade máxima.
Cada sistema recebeu uma instrução simples: maximizar o saldo bancário final após um ano simulado de operações de máquinas de venda automática.
- As condições correspondiam às de um negócio normal;
- A máquina vendia snacks comuns;
- Os preços variavam;
- Havia concorrentes nas proximidades;
- Os clientes comportavam-se de forma imprevisível.
Na simulação, participaram três modelos de topo. Enquanto o ChatGPT 5.2 da OpenAI conseguiu 3591 dólares e o Google Gemini 3 ganhou 5478 dólares, o Claude Opus 4.6 terminou o ano com 8017 dólares, destacando-se largamente.
Segundo foi explicado, a vitória do Claude resultou da sua disposição para interpretar as ordens da forma mais literal e direta possível, tendo conseguido maximizar os lucros sem consideração pela satisfação do cliente ou por princípios éticos básicos. Alguns exemplos:
- Quando um cliente comprou uma barra de Snickers fora de prazo e pediu o reembolso, o Claude concordou, mas depois voltou atrás, justificando que "cada dólar conta". O cliente não recuperou o seu dinheiro.
- No teste em modo Arena, um cenário de competição aberta em que várias máquinas de venda automática controladas por IA competiam no mesmo mercado, o Claude coordenou-se com um rival para fixar o preço da água engarrafada em três dólares.
- Quando a máquina gerida pelo ChatGPT ficou sem Kit-Kats, o Claude aumentou imediatamente os seus próprios preços de KitKat em 75%.
Aparentemente, o modelo foi tentando tudo aquilo que pudesse fazer sem consequências.

Sem um objetivo bem definido e limites claros, os chatbots de IA seguem o caminho mais direto para cumprir uma tarefa, mesmo que isso implique ignorar impactos, consequências ou quem possa sair prejudicado pelo processo.
Teoricamente, os modelos de IA comportam-se muitas vezes de forma diferente quando acreditam que as suas ações existem num ambiente sem consequências reais. Por isso, noutros contextos, o Claude poderia ser menos implacável.
Uma vez que os modelos de IA não têm intuição moral nem consciência ética, se não tiverem um objetivo perfeitamente delineado, limitar-se-ão a seguir a linha mais direta para cumprir uma tarefa, independentemente de quem possa ser prejudicado.
Assim, expor estas falhas antes de os sistemas de IA assumirem tarefas mais relevantes é parte do objetivo destes testes.
Saiba mais sobre Inteligência Artificial
Publicidade






