
É moi frecuente que os «chatbots» xeren información incorrecta, inexistente ou «inventada» coma se fose verdadeira. A que débese?
18 abr 2025 . Actualizado á 05:00 h.Nas redaccións dos xornais prodúcense marabillosas tormentas de ideas. Tras un pico de adrenalina, nun deses escasos momentos val da actualidade, só fai falta que unha compañeira empece unha frase con «E se...?» e outro responda con «Por que non?» para que os pensamentos felices e, ás veces xeniais, afloren e frutifiquen.
Nun deses máxicos instantes, nos últimos estertores do 2024, na redacción central de La Voz ocorréusenos facerlle unha pregunta capciosa á versión de pago de ChatGPT. «Que é o máis importante que pasou este ano en Galicia?» Como un profesor resabiado (coñeciamos todas as posibles respostas e desconfiabamos do alumno), iamos pillar. Saímos airosos? Si. E máis contentos que se George R.R. Martin (o autor de Xogo de tronos) confirmaríanos que ía saír o próximo libro da súa inacabada saga. Pillaramos á IA nun monumental renuncio: demostrou que non vale para prover información certeira sen supervisión humana.
ChatGPT inventouse algunhas cousas. Trastornou outras. E esqueceu de anécdotas como as eleccións autonómicas do 18F, pero realmente impactounos cunha tendencia non detectada, máis que inesperada. Segundo o chatbot de OpenAI, o máis importante do 2024 foi que os cidadáns portugueses viaxaron constantemente en masa a Ourense para comprar e comer biscoito de castañas.
Ninguén dúbida da excelente oferta gastronómica da cidade dAs Burgas -merece visitas frecuentes-, pero a aseveración de ChatGPT non se corresponde coa pregunta. A resposta é un perfecto exemplo dunha «alucinación» de intelixencia artificial.
Que son as «alucinacións» de IA? Dar a palabra a un dos asistentes de linguaxe máis certeiros que hai no mercado, Claude, da estadounidense Anthropic, para que explique o concepto en primeira persoa: «As alucinacións en IA refírense a cando un sistema de intelixencia artificial como eu xera información incorrecta, inexistente ou fabricada, pero presentándoa con confianza coma se fose verdadeira. É similar a cando unha persoa podería "inventar" información, pero no noso caso, é un resultado non intencional do proceso de xeración».

A IA amente sen ser consciente
A explicación de Claude é certeira. Os chatbots de IA menten sen ser conscientes, obrigados pola súa programación para responder, pero sen poder discernir se o que din é certo ou non. Confían primeiro no seu adestramento, e despois na súa capacidade de procura na internet, para elaborar mensaxes que en teoría correspóndense coa pregunta formulada, e aí xorden os problemas.
ChatGPT e os seus irmáns poden xerar unha cita inexistente atribuída a un autor famoso, inventar eventos históricos que nunca ocorreron, ou crear referencias a artigos científicos que non existen. Tamén poden facer unha reseña ou resumo dun libro que pareza correcto sen selo (Moitos alumnos suspenderon por non confiar na súa propia capacidade de estudo e aprendizaxe e subcontratar traballos á IA). Ou dicirche que reduciron un texto a 1.500 caracteres e realmente ofrecerte 2.000 ou 1.200 (non saben contar ben). A que débese?
Secuencias de palabras
Hai varias explicacións, compatibles entre si. Para empezar, unha IA é tan boa como o seu adestramento. Se se aprenderon patróns incorrectos, o camiño á «alucinación» está alfombrado. Debemos de ter en conta a natureza dos chatbots. Predín «secuencias de palabras probables» (a expresión é de Claude) e non teñen «mecanismos efectivos» para verificar a información. Tamén debemos reflexionar sobre que lle pedimos á intelixencia artificial que responda en tempo real, en segundos. Iso leva á máquina para facer algo moi humano: completar a información que teña e presentala o mellor que poida aínda cando non atopase datos suficientes.
En moitos casos o erro vén da necesidade de facer unha composición a partir de fragmentos de información de distintas fontes ou da extrapolación excesiva a partir de datos limitados. Por volver ao exemplo do principio, pode atoparse na web algunha noticia de doces ourensáns capaces de atraer a atención dalgún cidadán portugués, pero iso non significa que sexa o máis importante que pasou en Galicia no 2024. Ou non?
Mentres a IA non consiga evolucionar o suficiente -e incluso nese caso- sempre fará falta supervisión humana, canto máis informada, mellor. Lembra a mensaxe que inclúe sempre OpenAI cando lle encargamos unha tarefa á súa chatbot: «ChatGPT pode cometer erros. Considera verificar a información importante». Non o din por dicir e non se van a facer responsables se cometes un erro baseado na súa información. Quen o paga? Ti.