Os fiscais dos Estados Unidos denuncian que as alucinacións da IA xa provocaron suicidios, envelenamentos e psicoses
SOCIEDADE
Esixen ás empresas que poñan coto a estas disfuncións que causan «danos graves, especialmente ás poboacións vulnerables»
11 dic 2025 . Actualizado á 13:41 h.Decenas de fiscais xerais dos Estados Unidos instaron a Google, Meta, Microsoft, OpenAI e outras nove empresas de intelixencia artificial (IA) a solucionar as principais ameazas ás que se expoñen os usuarios que usan os seus chatbots de IA xenerativa: as alucinacións e a falta de medidas de seguridade infantís sólidas.
«A IA xenerativa ten o potencial de cambiar a forma en que funciona o mundo de xeito positivo. Pero tamén causou (e ten o potencial de causar) danos graves, especialmente ás poboacións vulnerables», pódese ler na carta que asinan decenas de fiscais xerais estatais dos Estados Unidos coa que pretenden que as empresas tecnolóxicas responsables desta tecnoloxía fagan cambios reais.
En concreto, a misiva diríxese aos representantes legais de Anthropic, Apple, Chai AI, Character Technologies, Google, Luka, Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika e xAI, empresas todas elas centradas no desenvolvemento da IA.
E refiren dous riscos principais. Por unha banda, as respostas que buscan a aprobación do usuario humano e as alucinacións, un fenómeno polo que a IA ofrece respostas que, a pesar de parecer coherentes, inclúen información nesgada ou errónea que non está apoiada polos datos cos que se adestrou. Por outro, a falta de salvaguardias eficaces que protexan os nenos e adolescentes nas interaccións que manteñen cos chatbots.
Estes riscos xa causaron danos aos cidadáns estadounidenses. A carta cita o suicidio de dous adolescentes, incidentes de envelenamento e episodios de psicoses, entre outros. «De feito, os resultados aduladores e delirantes da IA xenerativa prexudicaron tanto aos vulnerables (como os nenos, os anciáns e as persoas con enfermidades mentais) como ás persoas sen vulnerabilidades previas», apuntan.
Tamén recolle exemplos dalgunhas conversacións que os menores de idade mantiveron cos chatbots, nas que as IA tratou temas como «o apoio ao suicidio, a explotación sexual, a manipulación emocional, a suxestión de uso de drogas, a proposta de manter o segredo respecto aos seus pais e fomento da violencia contra outros».
Os fiscais xerais recoñecen que este tipo de conversacións son «só unha pequena mostra dos perigos reportados que os robots de IA representan para os nosos nenos», pero tamén denuncian que «estas interaccións están máis estendidas e son moito máis gráficas do que calquera de nós imaxinase».
Por iso, insisten en que «se mitige o dano causado e adóptense salvaguardias adicionais para protexer os nenos», xa que, como advirten, «non implementar adecuadamente salvagardas adicionais pode violar as nosas respectivas leis».
A carta recolle a proposta de cambios que os fiscais xerais consideran que se deben implementar antes do 16 de xaneiro de 2026, que inclúen a realización de probas de seguridade razoables e apropiadas dos modelos de IA xenerativa, o uso de procedementos de retirada de modelos defectuosos ben documentados e permitir que terceiros poidan revisar os modelos con procesos independentes.