Pular para o conteúdo
Tecnologia

Alucinações não são um “bug”: por que os erros da IA fazem parte da própria arquitetura dos modelos como o ChatGPT

À medida que bilhões de pessoas passam a usar chatbots como ChatGPT, Gemini ou Claude, um problema ganha destaque: as chamadas “alucinações”, quando a IA apresenta informações falsas com grande confiança. Pesquisadores explicam que isso não é apenas um defeito técnico — é uma consequência direta da forma como esses sistemas são treinados.
Por

Tempo de leitura: 3 minutos

A inteligência artificial generativa se espalhou rapidamente pelo mundo. Estima-se que cerca de 1,8 bilhão de pessoas tenham utilizado sistemas de IA em 2025, com algo entre 550 e 600 milhões de usuários diários. Esse crescimento acelerado trouxe também um debate central: até que ponto é possível confiar nas respostas desses modelos? Um estudo recente sugere que as chamadas alucinações — respostas plausíveis, porém incorretas — são uma característica estrutural dos grandes modelos de linguagem.

O que são as “alucinações” da inteligência artificial

First Proof1
© ChatGPT – Gizmodo

Alucinações são afirmações aparentemente convincentes produzidas por modelos de linguagem que, na realidade, estão factualmente erradas.

Esse fenômeno pode ocorrer mesmo em perguntas simples. Em um exemplo citado por pesquisadores, um chatbot forneceu três títulos diferentes — e todos falsos — para uma tese acadêmica. Em outra pergunta, o sistema apresentou três datas de aniversário distintas para a mesma pessoa, novamente sem acertar nenhuma.

O problema não é apenas a existência de erros, mas o fato de que os modelos frequentemente respondem com grande segurança, mesmo quando a informação está incorreta.

Com a popularização de ferramentas como ChatGPT, Claude, Gemini e outros assistentes conversacionais, esse tipo de comportamento passou a ser amplamente discutido em debates sobre confiabilidade da IA.

Por que os modelos são incentivados a “adivinhar”

Parte do problema está na forma como os modelos são avaliados.

Grande parte dos testes utilizados para medir desempenho de IA prioriza um indicador específico: a precisão, ou seja, a porcentagem de respostas corretas.

Esse sistema cria um incentivo curioso. Se um modelo não sabe a resposta, ele pode escolher entre duas opções: admitir que não sabe ou arriscar uma resposta.

Se o sistema arriscar, existe uma pequena chance de acertar. Se disser “não sei”, a resposta será automaticamente considerada incorreta.

Em avaliações com milhares de perguntas, um modelo que arrisca respostas tende a obter uma pontuação maior do que um modelo mais cauteloso que admite incerteza.

Isso acaba incentivando um comportamento de “palpite confiante”, que aumenta a frequência das alucinações.

O problema fundamental: prever a próxima palavra

ChatGPT deixa de ser ferramenta e começa a construir um novo tipo de relação conosco
© Pexels

Os grandes modelos de linguagem, conhecidos como LLMs, são treinados principalmente para prever a próxima palavra em uma sequência de texto.

Durante o treinamento, eles analisam enormes volumes de documentos e aprendem padrões estatísticos da linguagem.

No entanto, nesse processo não existe necessariamente uma etiqueta que indique se cada afirmação é verdadeira ou falsa.

O modelo aprende quais frases parecem plausíveis, mas não necessariamente quais são factualmente corretas.

Isso funciona muito bem para aspectos estruturais da linguagem, como ortografia ou gramática. À medida que mais dados são usados, esses tipos de erros diminuem.

Mas fatos específicos — como datas, números ou eventos históricos pouco frequentes — são muito mais difíceis de prever apenas com base em padrões estatísticos.

Por isso, mesmo modelos muito avançados podem errar em informações aparentemente simples.

Por que mais dados não eliminam o problema

Uma ideia comum é que aumentar o volume de dados ou o poder computacional resolveria completamente as alucinações.

O estudo sugere que isso não é necessariamente verdade.

Embora modelos maiores possam reduzir a frequência dos erros, sempre existirão perguntas para as quais o sistema não possui informação suficiente.

Além disso, muitas perguntas do mundo real contêm ambiguidades ou exigem raciocínio contextual complexo.

Isso significa que a precisão de um modelo dificilmente poderá chegar a 100%.

A importância de ensinar a IA a expressar incerteza

Diante desse cenário, pesquisadores sugerem uma mudança importante na forma como os modelos são avaliados.

Em vez de recompensar apenas respostas corretas, os sistemas de avaliação poderiam penalizar erros mais severamente e valorizar a capacidade do modelo de reconhecer quando não sabe algo.

Essa abordagem já existe em alguns exames humanos, nos quais respostas erradas reduzem a pontuação para evitar chutes aleatórios.

Aplicar uma lógica semelhante aos testes de IA poderia incentivar modelos a admitir incerteza em vez de apresentar informações falsas com segurança.

O futuro da confiabilidade na IA

Apesar das limitações, os modelos de linguagem continuam evoluindo rapidamente.

Versões mais recentes já apresentam taxas menores de alucinação em comparação com gerações anteriores.

No entanto, pesquisadores apontam que o verdadeiro avanço pode vir não apenas de modelos maiores, mas de sistemas mais bem calibrados, capazes de estimar o próprio nível de confiança.

Em outras palavras, o próximo passo da inteligência artificial talvez não seja simplesmente responder mais perguntas — mas aprender quando é melhor dizer: “não sei”.

 

[ Fonte: El Grand Continent ]

 

Partilhe este artigo

Artigos relacionados