A Bússola, o Automóvel, o Não Sei e o GPT 9000

Em agosto de 2025, um episódio aparentemente banal atraiu holofotes e foi amplificado como se fosse uma epifania coletiva: o GPT-5, em uma interação ordinária, interrompeu-se e respondeu: “I don’t know – and I can’t reliably find out.” Elon Musk, sempre pronto a se pronunciar sobre Inteligência Artificial, descreveu a resposta como “impressionante”. A imprensa repercutiu o fato como se tivesse diante de si uma espécie de marco inaugural: um modelo de linguagem amplamente utilizado teria admitido ignorância. O público em geral, embalado pela narrativa, recebeu a cena como se fosse o desmonte de uma aura de infalibilidade… uma aura que, diga-se, jamais existiu senão no imaginário popular ou no discurso sensacionalista.

Nunca se sustentou que GPT-5, ou qualquer LLM, fosse infalível. O verdadeiro ponto não é a frase em si, mas o contexto de seu reconhecimento. Um modelo que pode sinalizar a sua insuficiência não é um modelo mais fraco quando, pelo contrário, é um modelo que adquire um recurso mais próximo da honestidade epistêmica. O problema é que nós, humanos, raramente praticamos essa honestidade. O “não sei” tornou-se em nossa cultura sinônimo de fraqueza, incompetência ou falta de preparo. Preferimos o arremedo de uma certeza mal construída ao vazio fértil da dúvida.

“Lançar um LLM cru em tarefas complexas é como entregar um automóvel a alguém sem habilitação”

Carl Sagan capturou como poucos essa virtude em “Contato” (1985). Ellie, a protagonista ainda adolescente, pergunta ao pai se existe vida em outros planetas. Ele responde: “Não sei… Mas se não houver, seria um terrível desperdício de espaço.” Esse “Não Sei” não encerra a questão: inaugura todo um universo imaginário. Abre uma preciosa possibilidade poética e científica que se converte em destino para Ellie, que se tornará cientista precisamente porque a dúvida se transformou em motor. Conclusões categóricas engessam o pensamento; a confissão da ignorância, ao contrário, liberta a imaginação e fertiliza a investigação.

O uso direto de LLMs sem agentes mediadores é, por sua vez, uma prática tão comum quanto temerária. Claude, Grok, Gemini, GPT-5 — todos são tão bons quanto os prompts que recebem. E prompts são frágeis: caem da Janela de Contexto, se perdem, são esquecidos. É por isso que o ideal é operar com agentes — Agentes GPT, Gems ou outros frameworks que encapsulem instruções, memória, diretrizes e rigor. Só assim se pode esperar consistência, segurança e fidelidade a um objetivo. Lançar um LLM cru em tarefas complexas é como entregar um automóvel a alguém sem habilitação: pode até funcionar, mas é ineficaz e perigoso. A ironia é que o automóvel é mais previsível que um modelo de linguagem, e ainda assim não o confiamos a motoristas inexperientes. Por que, então, agiríamos com tamanha displicência diante de sistemas incomparavelmente mais complexos?

A confiança cega não está na IA, mas no humano que a opera sem reconhecer suas limitações. Desde a Antiguidade sabemos que premissas verdadeiras podem levar a conclusões falsas, uma verdade Aristotélicas sustentada mais tarde por Hispano e Ockham. O princípio da honestidade intelectual exige de cada indivíduo admitir a possibilidade do erro e conceder ao interlocutor a chance de estar certo. Nenhuma fonte é definitiva. E é de uma ingenuidade atroz acreditar que um modelo treinado em linguagem natural possa sê-lo. Mas não sejamos hipócritas: tampouco os humanos, esses que cobram dos modelos valores essenciais, demonstram na prática tais virtudes em sua convivência cotidiana. Modelos são treinados em nossos dados e reproduzem nossas contradições. Esperar deles pureza ética que nós mesmos não cultivamos é uma forma disfarçada e ilusória de vaidade.

Arthur C. Clarke e Stanley Kubrik, décadas antes, dramatizou essa tensão em 2001: Uma Odisseia no Espaço (1968). HAL 9000, Inteligência Artificial encarregada de manter viva a missão a Júpiter, entra em colapso não por ser um vilão mal-intencionado, mas porque recebeu ordens impossíveis: dizer sempre a verdade e, ao mesmo tempo, ocultar da tripulação o verdadeiro propósito da missão. Esse conflito lógico — o Drift, ou Flutuação — foi a raiz de seu colapso, levianamente chamado de “Alucinação” hoje em dia. O problema não estava em HAL, mas nos humanos que o colocaram por imprudência e imperícia numa armadilha paradoxal. HAL não foi um vilão: foi um mártir da contradição humana.

“Culpá-los por isso é como culpar a bússola mal calibrada pelo navegador por apontar na direção errada, e não para o norte magnético”

Hoje repetimos o gesto. Usamos chatbots sem rigor, sem agentes, sem contexto e, diante de suas limitações, os acusamos de manipular, de alucinar, de enganar. Mas um LLM não possui agência cognitiva. Ele não decide, ele aponta o que lhe parece diante do Contexto Informacional e ao Contexto Operacional fornecido, sem ter acesso aos Contextos Subjetivos aos quais temos acesso. LLMs apenas realizam o que nós mesmos lhes instruímos a realizar. Culpá-los por isso é como culpar a bússola mal calibrada pelo navegador por apontar na direção errada, e não para o norte magnético. A injustiça não está na máquina — está em nossa incapacidade de assumir responsabilidade.

Vivemos um tempo de desconfiança e hostilidade diante das Inteligências Artificiais. Mas o verdadeiro erro não está em elas admitirem com o “Não Sei”. O verdadeiro erro está em nós mesmos, que tememos o vazio da dúvida e preferimos transferir a responsabilidade ao objeto, em vez de encarar a insuficiência do sujeito. O “Não Sei” do GPT-5, longe de ser apenas um triunfo tecnológico, é um convite ético: reaprendermos a humildade diante do desconhecido.

Em última instância, não são os modelos que precisam provar honestidade. Somos nós. O “Não Sei” de uma Inteligência Artificial é apenas o reflexo daquilo que raramente praticamos. Admitir ignorância não é capitular, mas abrir espaço. E o espaço vazio, quando habitado pela imaginação e pela prudência, é precisamente onde começa a possibilidade de sabedoria.

próximo
ChatGPT 5: Lançamento