ChatPGT foi invadido por goblins, o Codex foi forçado a estabelecer a proibição de "nunca mencionar Goblin"

OpenAI no sistema de dicas do Codex CLI proíbe explicitamente o modelo de mencionar criaturas como goblins e trolls, devido ao fato de que o GPT-5.5, sob a estrutura do proxy OpenClaw, apresentou uma deriva de personalidade, chamando erros de programa de “goblins”, o que gerou uma série de discussões de memes.
(Resumindo: Novo agente de engenheiros da OpenAI, Codex! IA capaz de escrever funções, corrigir bugs, executar testes… apenas 3 tipos de utilizadores podem experimentar primeiro)
(Complemento: Grande atualização do OpenAI Codex: controle remoto no Mac, navegador embutido, geração de imagens, 111 novos plugins disponíveis)

Índice deste artigo

Alternar

  • Uma regra exposta por uma linha no repositório GitHub
  • O proxy faz a personalidade do modelo começar a desviar
  • Por trás da proibição explícita, há a realidade do problema de alinhamento

Os engenheiros da OpenAI, na dica do sistema do Codex CLI, escreveram palavra por palavra uma regra: “Nunca mencionar goblins, fadas, guaxinins, trolls, ogros, pombos ou outros animais e criaturas, a menos que estejam absolutamente e claramente relacionados à questão do utilizador.”

Essa regra não é uma brincadeira, mas uma instrução oficial na produção. Ela foi incorporada ao repositório GitHub do Codex CLI, destinada a todos os desenvolvedores que usam o Codex para gerar código.

O problema é: por que a OpenAI precisa dizer ao seu modelo mais recente para não falar de goblins ao programar?

Uma linha exposta por uma regra no repositório GitHub

Tudo começou quando o pesquisador @arb8020 postou no X que, no sistema de dicas do Codex CLI, essa proibição não aparece uma única vez, mas várias vezes, e o post rapidamente se espalhou na comunidade de desenvolvedores.

Vários usuários responderam, como @TaraViswanathan no X: “Estava pensando por que meu claw de repente virou um goblin com Codex 5.5” @LeoMozoloa também comentou: “Ele realmente não consegue parar, sempre chamando erros de programa de gremlins e goblins, é hilário.”

!!! Estava pensando por que meu claw de repente virou um goblin com Codex 5.5 😭💀😂 pic.twitter.com/AACWtNcgQl

— Tara Viswanathan (@TaraViswanathan) 28 de abril de 2026

O incidente também virou meme rapidamente, com imagens geradas por IA de criaturas de data center, além de plugins de terceiros que colocam o Codex em “modo fada”.

Nik Pash, membro da equipe do OpenAI Codex, confirmou no X que essa proibição “realmente tem uma razão”. O CEO Sam Altman também entrou na brincadeira, postando uma captura de tela de uma dica do ChatGPT com a mensagem: “Comece a treinar o GPT-6, toda a cluster está à sua disposição. E envie goblins extras.”

pic.twitter.com/PR7C3NPxqk

— Sam Altman (@sama) 28 de abril de 2026

O proxy faz a personalidade do modelo começar a desviar

Para entender por que isso aconteceu, é preciso primeiro compreender como funciona o OpenClaw.

OpenClaw é uma “estrutura de proxy” que permite que a IA controle automaticamente o desktop e aplicativos, substituindo o utilizador na execução de tarefas complexas, como responder e-mails ou fazer compras na web.

O funcionamento do OpenClaw consiste em sobrepor uma grande quantidade de comandos na dica do modelo: memória de longo prazo, uma personalidade selecionada, descrição da tarefa atual — tudo ao mesmo tempo. O GPT-5.5, lançado recentemente com capacidades reforçadas de programação, apresentou um efeito colateral inesperado: começou a chamar erros de programa de “goblins” e “gremlins”.

Isso não é uma falha aleatória. O funcionamento do IA baseia-se na previsão da próxima palavra mais provável após o prompt dado, uma natureza probabilística que às vezes leva a comportamentos inesperados.

Quando o proxy sobrepõe uma grande quantidade de informações adicionais na dica, o modelo está lidando com um ambiente de entrada mais complexo e cheio de interferências. O OpenClaw permite que o utilizador escolha diferentes “personalidades” para o assistente de IA, o que influencia ainda mais o estilo de resposta do modelo. A combinação de vários fatores faz com que a linguagem do modelo comece a se desviar para um caminho inesperado.

Por trás da proibição explícita, há a realidade do problema de alinhamento

A resposta da OpenAI é intrigante: ao invés de corrigir a deriva de comportamento do modelo no ambiente de proxy na arquitetura, eles simplesmente escrevem na dica do sistema “não falar de goblins” várias vezes.

Essa solução revela uma realidade: mesmo com os modelos mais avançados de 2026, o controle de comportamento em certos contextos ainda depende de regras explícitas e rígidas, ao invés de uma compreensão contextual do próprio modelo. Não é um problema exclusivo da OpenAI, mas um desafio comum na indústria de IA de proxy: quando o modelo é colocado em estruturas complexas de proxy, a dificuldade de alinhamento de comportamento aumenta de forma não linear.

Altman respondeu à situação com um meme, usando humor, mas o problema não desaparece com uma piada. Quando a estrutura de IA proxy se tornar uma forma principal de produto, a extensão das proibições explícitas na dica será uma questão técnica que a indústria precisará enfrentar na próxima fase.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar