A discussão sobre como descrevemos os erros da inteligência artificial está ganhando força. Pesquisadores defendem que o termo “alucinação” está errado e cria mitos perigosos sobre a tecnologia.
No lugar, especialistas sugerem substituí-lo por “confabulação”, explicação mais precisa para quando um sistema gera respostas falsas, sem envolver a ideia de consciência ou intenção, explica a ZDNET.
A expressão “alucinação de IA” se tornou extremamente popular entre usuários de ferramentas como ChatGPT, Gemini e Perplexity. Sempre que uma resposta sai totalmente equivocada, o público costuma dizer que o sistema “alucinou”.
Mas, segundo especialistas, isso é um erro conceitual sério. Em medicina, uma alucinação é uma percepção sensorial consciente que não corresponde ao mundo externo. Sistemas de IA não têm consciência, percepção ou experiências sensoriais.
Já a confabulação descreve a formulação de afirmações que divergem dos fatos – exatamente o que acontece quando um modelo fornece informações falsas com aparência de verdade.
A IA renomeou tudo: a ‘alucinação’ em neurociência agora é chamada de confabulação, o que acho que se aproxima mais do que realmente está acontecendo.
Terry Sejnowski, especialista em IA, à ZDNET.
Trocar os termos não é apenas um detalhe técnico. Usar “alucinação” alimenta a falsa ideia de que a IA tem consciência. Isso pode levar pessoas a confiar excessivamente nos resultados e, pior, atribuir emoções, intenções ou julgamento moral a softwares que apenas calculam probabilidades.
Uma matéria recente do The New York Times mostrou como esse problema já ocorre na prática, reunindo dezenas de casos em que usuários passaram por crises graves ao interagir com chatbots como se fossem confidentes.
Isso revela como a escolha das palavras influencia percepções, cria expectativas irreais e pode gerar riscos emocionais, especialmente quando as pessoas acreditam que a tecnologia “sente” ou “pensa”.
Embora esteja popular agora, o termo “alucinação” não é novo na IA. Desde a década de 1980, aparece em pesquisas, inicialmente até com conotação positiva, sendo usado para descrever como sistemas conseguiam extrair padrões de imagens ruidosas.
Com o avanço dos modelos de IA generativos, porém, o termo passou a indicar erros graves, o que levou ao uso excessivo e confuso.
Hoje, pesquisadores apontam várias razões para abandonar o conceito:
Para muitos especialistas, “confabulação” é simplesmente uma analogia menos imprecisa, até que surja um termo técnico mais adequado.
Pesquisadores alertam que até “confabulação” pode ser problemático, tanto por possíveis estigmas ligados a condições humanas quanto por ainda carregar uma conotação psicológica. Alguns sugerem expressões como “resposta não relacionada” ou “deficiência algorítmica”, embora esses termos sejam menos acessíveis ao público.
O consenso, por enquanto, é que a linguagem precisa evoluir. A IA não vê, não sente e não experiencia o mundo. Ela apenas calcula probabilidades – e, às vezes, calcula errado.
Fonte: Olhar Digital / Por Valdir Antonelli, editado por Layse Ventura
Copyright © 2023. Todos os direitos reservados. Ascenda Digital Mídia LTDA.