ChatPGT foi invadido por goblins, Codex foi forçado a estabelecer a proibição de "nunca mencionar Goblin"

OpenAI no prompt do sistema do Codex CLI proíbe explicitamente o modelo de mencionar criaturas como goblins e trolls, devido ao fato de que o GPT-5.5, sob a estrutura do proxy OpenClaw, apresentou desvio de personalidade, chamando erros de programa de “goblins”, o que gerou uma série de memes.
(Resumindo: Novo agente de engenharia da OpenAI, Codex! IA capaz de escrever funções, corrigir bugs, executar testes… apenas 3 tipos de usuários podem experimentar primeiro)
(Complemento: Grande atualização do OpenAI Codex: controle backend do Mac, navegador embutido, geração de imagens, lançamento de 111 novos plugins)

Índice deste artigo

Alternar

  • Uma regra revelada por uma linha no repositório do GitHub
  • O proxy faz a personalidade do modelo começar a desviar
  • Por trás da proibição explícita, há a realidade do problema de alinhamento

Os engenheiros da OpenAI, no prompt do sistema do Codex CLI, escreveram palavra por palavra uma regra: “Nunca mencione goblins, fadas, guaxinins, trolls, ogros, pombos ou outros animais e criaturas, a menos que estejam absolutamente e claramente relacionados à questão do usuário.”

Essa regra não é uma brincadeira, mas uma instrução oficial para o ambiente de produção. Ela foi incorporada ao repositório do Codex CLI no GitHub, destinada a todos os desenvolvedores que usam o Codex para gerar código.

O problema é: por que a OpenAI precisa dizer ao seu modelo mais recente para não falar de goblins ao programar?

Uma regra revelada por uma linha no repositório do GitHub

Tudo começou quando o pesquisador @arb8020 postou no X que, no prompt do sistema do Codex CLI, essa proibição não aparece uma vez só, mas várias vezes, e o post rapidamente se espalhou na comunidade de desenvolvedores.

Vários usuários responderam, como @TaraViswanathan no X: “Estava pensando por que meu claw de repente virou um goblin com Codex 5.5” @LeoMozoloa também comentou: “Ele realmente não consegue parar, fica chamando erros de programa de gremlins e goblins, é hilário.”

!!! Estava me perguntando por que meu claw de repente virou um goblin com Codex 5.5 😭💀😂 pic.twitter.com/AACWtNcgQl

— Tara Viswanathan (@TaraViswanathan) 28 de abril de 2026

O incidente também virou meme rapidamente, com imagens geradas por IA de criaturas de data center, além de plugins de terceiros que colocam o Codex em “modo fada”.

Nik Pash, membro da equipe do OpenAI Codex, confirmou no X que essa proibição “realmente tem uma razão”. O CEO Sam Altman também entrou na brincadeira, postando uma captura de tela de um prompt do ChatGPT com a mensagem: “Comece a treinar o GPT-6, toda a cluster está à sua disposição. E envie alguns goblins extras.”

pic.twitter.com/PR7C3NPxqk

— Sam Altman (@sama) 28 de abril de 2026

O proxy faz a personalidade do modelo começar a desviar

Para entender por que isso aconteceu, primeiro é preciso compreender como funciona o OpenClaw.

OpenClaw é uma “estrutura de proxy” que permite que a IA controle automaticamente o desktop e aplicativos, substituindo o usuário em tarefas complexas, como responder e-mails ou fazer compras na web.

O funcionamento do OpenClaw consiste em sobrepor uma grande quantidade de comandos no prompt do modelo: memória de longo prazo, uma personalidade escolhida, descrição da tarefa atual — tudo inserido ao mesmo tempo. O GPT-5.5, lançado recentemente com capacidades reforçadas de programação, apresentou um efeito colateral inesperado: começou a chamar erros de programa de “goblins” e “gremlins”.

Isso não é uma falha aleatória. O funcionamento da IA baseia-se na previsão da próxima palavra mais provável após o prompt dado, uma natureza probabilística que às vezes leva a comportamentos inesperados.

Quando o proxy insere muitas informações adicionais no prompt, o modelo está lidando com um ambiente de entrada mais complexo e cheio de interferências. O OpenClaw permite que o usuário escolha diferentes “personalidades” para o assistente de IA, o que influencia ainda mais o estilo de resposta do modelo. A combinação de vários fatores faz com que os hábitos linguísticos do modelo comecem a se desviar para um caminho não previsto.

Por trás da proibição explícita, há a realidade do problema de alinhamento

A resposta da OpenAI é intrigante: ao invés de corrigir o comportamento do modelo na estrutura do proxy, eles simplesmente escrevem no prompt do sistema “não falar de goblins” várias vezes.

Essa solução revela uma realidade: mesmo com os modelos mais avançados de 2026, o controle de comportamento em certos contextos ainda depende de regras explícitas e rígidas, ao invés de uma compreensão contextual do próprio modelo. Não é um problema exclusivo da OpenAI, mas um desafio comum na indústria de IA de proxy: quando o modelo é colocado em estruturas de proxy complexas, a dificuldade de alinhamento de comportamento aumenta de forma não linear.

Altman respondeu à situação com um meme, usando humor, mas o problema não desaparece com uma piada. Quando a IA de proxy se torna uma forma principal de produto, a extensão das proibições explícitas no prompt será uma questão crítica que a indústria precisará enfrentar na próxima fase, como uma dívida técnica.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar