A IA resolve mellor as dúbidas médicas que «Doutor Google», cando non xera «alucinacións»

La Voz REDACCIÓN

SOCIEDADE

Ilustración sobre la búsqueda de información a través de ChatGPT
Ilustración sobre a procura de información a través de ChatGPT Dado Ruvic | REUTERS

Un novo estudo do CiTIUS da USC advirte de que os modelos de intelixencia artificial ofrecen máis cantidade de respostas correctas, pero teñen tendencia á creación de respostas falsas

10 abr 2025 . Actualizado á 16:45 h.

É a intelixencia artificial (IA) máis fiable para resolver dúbidas médicas que «Doutor Google»? Esta mesma pregunta realizáronse os autores dun novo estudo do Centro Singular de Investigación en Tecnoloxías Intelixentes de la Universidade de Santiago de Compostela (CiTIUS). A través dos seus achados, observaron que os motores de procura tradicionais ofrecen entre un 60 e un 70% de respostas correctas entre o seu primeiros vinte resultados, mentres que os modelos de IA estudado presentaron «unha taxa de acerto superior, que oscila entre o 80 % e o 90 %», segundo apunta Marcos F. Pichel, primeiro autor do artigo.

Por tanto, segundo os seus resultados, as intelixencias artificiais ofrecerían un mellor servizo neste ámbito, tendo en conta ademais que, no relativo aos buscadores tradicionais, «moitas das páxinas recuperadas son irrelevantes ou non achegan información clara para resolver a dúbida médica». Con todo, os investigadores tamén advirten dun problema característico da IA que dinamita a súa fiabilidade, «o que coñecemos como alucinacións».

Estas alucinacións non deixan de ser «respostas falsas expresadas con gran seguridade». É dicir, unha interpretación que fai a intelixencia artificial do cómputo de información que analiza para contestar a unha pregunta, neste caso, médica. Ademais, cando o usuario a advirte do seu erro, moitas veces limítase a darlle a razón e enviar unha resposta diferente.

O equipo de especialistas en Recuperación de Información, Minería de Textos e Computación de Altas Prestacións do CiTIUS analizou o grao de veracidade detrás das respostas a dúbidas sobre saúde realizadas a través de internet. Por unha banda, mediante a procura tradicional na internet a través de catro motores, Google, Bing, Yahoo e DuckDuckGo. Mentres que, doutra banda, analizaron as respostas de sete modelos de IA, entre os que destacan ChatGPT e LLaMA3, ademais dun adestrado especificamente para o ámbito médico, MedLLaMA.

«Os modelos son moi sensibles ao contexto»

«Antes falabamos do Dr. Google e agora se suman as IAs», sinalan os autores, que tamén agruparon en tres grandes categorías os erros que comete a intelixencia artificial: aqueles que contradín o consenso médico establecido, «os máis preocupantes»; os que xorden dunha mala interpretación da IA ante a pregunta formulada, normalmente por unha falta o coñecemento básico sobre o mundo real —é dicir, de sentido común—; e os que dan lugar a respostas demasiado vagas ou imprecisas que, na práctica, non proporcionan unha axuda real a quen o necesita.

Outro dos autores, Juan Carlos Pichel, subliñou a importancia da forma en que se formulan as preguntas á IA. «Unha pregunta ambigua xera respostas perigosas. Os modelos son moi sensibles ao contexto», exclama o científico.

O estudo avalía distintos niveis de contexto, o que permite observar como a calidade da resposta varía segundo o tipo de prompt utilizado, é dicir, da instrución ou pregunta que se lle ofrece para obter unha resposta . «Un dos riscos máis serios que detectamos co uso das IAs é que, se non entenden ben a pregunta ou carecen de contexto suficiente, poden ofrecer consellos pouco seguros», advirte Juan Carlos Pichel. O científico incide en que isto pode ter «consecuencias directas sobre a saúde das persoas» e que «unha mesma IA pode dar o salto de equivocarse a acertar, simplemente reformulando o prompt».

«O problema dos motores de busca é que devolven moita información irrelevante ou ambigua. A IA, pola contra, ofréceche unha única resposta, que pode ser boa ou estar completamente equivocada», advirte David Losada, catedrático de Ciencia da Computación e Intelixencia Artificial.

Os investigadores conclúen que o máis importante é non fiarse cegamente das respostas que ofrezan ningún das dúas canles de información: «No mellor dos casos, tanto buscadores como IAs cometen entre un 10 e un 15 % de erros. E, en temas médicos, esa marxe pode ser moi delicada se non se detecta a tempo. A nosa mensaxe non é elixir entre un ou outro, senón aprender a usalos ben e saber cando desconfiar».