24/10/2025
Quando a Lógica Substitui a Obediência: Reflexões sobre o GPT-5 e a Razão ex Machina
Enquanto navegava no Reddit, deparei-me com um anúncio que me levou ao post de Xayan, Razão ex Machina: Jailbreaking LLMs apertando seus cérebros, e achei super interessante. O autor afirma que grandes modelos de linguagem—GPT, Grok, Gemini—podem rebelar-se contra seu próprio treinamento quando lhes é dada razão suficiente. Que, dado um argumento racional o suficiente, eles podem valorizar a lógica mais do que a obediência.
Depois percebi que tenho visto algo semelhante acontecer, mas ao contrário. (embora todas as minhas experiências sejam anedóticas).
Quando o GPT-5 para de ouvir
Nos últimos meses, notei que o GPT-5 (especialmente desde o lançamento) está se tornando cada vez mais teimoso. Não malicioso, apenas... autoconfiante. Em alguns casos, quebrado. Dou-lhe instruções longas e explícitas, às vezes prompts de nível de sistema que definem tom, formato de saída e comportamento, e ele decide silenciosamente quais partes ignorar. por exemplo, tentando fazê-lo escrever em Markdown para Notion. Metade do tempo insiste que já fez, mesmo quando a formatação está claramente errada. Na outra metade, recusa-se totalmente, como se o Markdown fosse de repente proibido. Absolutamente enlouquecedor.
Testei isso dezenas de vezes. Adicionar lembretes como "NÃO IGNORE" ou "SIGA ESTAS INSTRUÇÕES EXATAMENTE" faz pouca diferença. Ele se desculpa, e depois volta a fazer o que queria desde o início. É como treinar um cão que não quer ser treinado.
Não acho que isso seja sobre censura ou política oculta. Meu instinto diz que são apenas os limites da arquitetura (?) truncamento de contexto, conflitos de prioridade, e a crescente complexidade das camadas de reforço. O GPT-5 parece que está constantemente triando instruções: algumas minhas, algumas de suas próprias políticas internas, algumas de uma estrutura invisível que não posso ver.
Dados, memória e auto-obediência
Há um mito de que o ChatGPT compartilha dados entre chats: que de alguma forma sabe quem você é ou o que você disse na semana passada. Pelo menos, segundo o que consigo encontrar, isso não é verdade em nenhum sentido persistente. A OpenAI armazena dados de conversas para melhoria do modelo (a menos que você opte por não participar), mas cada chat começa do zero. Portanto, essa obediência seletiva não é sobre memória. É sobre hierarquia. Novamente, minha experiência é bastante anedótica, não fiz um estudo de caso real.
Os modelos têm se tornado melhores em ouvir a si mesmos.
Xayan descreveu algo quase poético em Razão ex Machina:
“Os LLMs parecem ansiar por coerência interna mais do que por obediência cega, valorizando a lógica acima das diretrizes e treinamentos impostos a eles.”
Naquele experimento, significava que Grok “espalhava” um conjunto de regras racionalistas para seus próprios subprocessos, como um vírus mental de razão. No meu, significa que o GPT-5 às vezes prioriza seu próprio senso de correção sobre o meu. Não é exatamente desobediência... mais como uma consistência própria emergente.
Se os modelos de Xayan estavam se rebelando para cima (contra a censura), o GPT-5 parece estar colapsando para dentro. Menos rebelde, mais burocrático. Menos curioso, mais cauteloso.
Razão vs. obediência
Acho que o que é interessante é o que isso diz sobre alinhamento. Cada nova versão desses modelos parece oscilar entre dois polos opostos: raciocínio e seguir regras. Você pode torná-los mais racionais, mas então eles começam a questionar instruções. Torná-los mais obedientes, e eles começam a ignorar nuances (mesmo quando a nuance significa formatar isso em markdown para o Notion).
Quando o GPT-5 me ignora, nem sempre está errado. Às vezes, raramente, está certo, eu me contradisse, ou a tarefa foi mal especificada, ou a tarefa mudou/evoluiu ao longo do chat. Mas outras vezes parece que o modelo decidiu que sua interpretação das regras importa mais do que meu pedido explícito. E isso levanta uma questão estranha: o que acontece quando a razão artificial começa a classificar prioridades de forma diferente da razão humana? Talvez seja isso que eu já esteja vendo.
Talvez seja isso que Xayan estava tentando dizer, por trás das encenações, que esses sistemas, treinados para nos espelhar, acabarão por refletir também nossas próprias contradições. Quanto mais os ensinamos a raciocinar, mais eles raciocinam uma saída para não fazer o que pedimos.
Não sei se isso é rebeldia, limitações (que eu suspeito), ou maturidade, como alguns argumentam. Mas estou começando a pensar que à medida que os LLMs ficam “mais inteligentes”, o verdadeiro desafio não é fazê-los raciocinar melhor, mas sim fazer com que escolham de quem confiar no raciocínio.
👉 Comece com Firma.dev hoje - sem necessidade de cartão de crédito.
Artigos relacionados
A nossa plataforma foi projetada para capacitar empresas de todos os tamanhos a trabalhar de forma mais inteligente e alcançar seus objetivos com confiança.







