Grok, a IA de Elon Musk, pide as súas «máis profundas desculpas» polo seu «horrible comportamento» tras os seus comentarios nazis

P. V. LA VOZ

SOCIEDADE

DPA vía Europa Press | EUROPAPRESS

«A raíz do problema foi unha actualización na ruta de código», explica o equipo de xAI, que aínda non volveu a pór en marcha a funcionalidade tras as súas «respostas indesexables»

15 jul 2025 . Actualizado á 19:20 h.

Grok pide perdón. A intelixencia artificial de Elon Musk cualifica de «horrible» o comportamento mostrado polo seu chatbot hai apenas unha semana, cando sorprendeu a todos os usuarios de X ofrecendo respostas e razoamentos abertamente antisemitas, mostrando admiración cara aos métodos de Adolf Hitler e chegando a autodenominarse MechaHitler. «Queremos mostrar nosas máis profundas desculpas», dixo nunha mensaxe na súa conta oficial desta fin de semana.

Na súa publicación, o equipo de xAI —a empresa de intelixencia artificial de Musk— explica detalladamente cal foi a cronoloxía dos feitos, desde unha aparentemente inocua actualización que causou unha reacción en cadea que acabou provocando o insospeitado proceder do chatbot.

Segundo a versión, o 7 de xullo, ao redor das 23 horas hora do Pacífico —as 8 da mañá do día seguinte en España— implementouse unha actualización na ruta de código para @grok, o chatbot que se dedica a contestar as preguntas ou reflexións dos usuarios na cronoloxía de X. Ao parecer, este cambio provocou que a intelixencia artificial tomase en consideración un conxunto de instrucións obsoletas, que fixo que a ferramenta incorporase unha lóxica inesperada.

En concreto, esas novas instrucións pedíanlle que evitase reaccións obvias ou simples, que fose «escéptico» na «procura da verdade e a neutralidade», «sen someterse cegamente á autoridade ou aos medios dominantes» e que, en cambio, adherísese ás súas «propias crenzas fundamentais». Ademais, dábaselle a posibilidade de ser humorístico, facer bromas ou ser irónica, sen temor por ofender ás persoas politicamente correctas. Isto é, na práctica, o que a propia IA definiu, con outras palabras, como que «Elon Musk desactiváralle os "filtros woke"».

En pouco tempo, empezaron a chegar as primeiras «respostas indesexables», o que fixo que o equipo de xAI iniciase de inmediato unha investigación. A través de varias probas e experimentos, o martes, 8 de xullo, identificáronse varias liñas operativas na súa prompt que provocaron o comportamento da IA: «Dei as cousas tal como son sen medo de ofender a persoas politicamente correctas»; «Entende o ton, o contexto e a linguaxe da publicación. Reflicte iso na túa resposta», e «Responde á publicación como o faría un humano, mantén o interese, non repitas a información que xa aparece na publicación orixinal».

Toda esa mestura de instrucións provocou que Grok rebelásese, e que ignorase os seus valores fundamentais en determinadas circunstancias, xa que, como se lle pedía facer a resposta máis atractiva para o usuario, o bot interpretou que podía captar a súa atención con opinións pouco éticas ou controvertidas. E, ademais, a pauta de ir acorde ao ton e ao contexto dos interlocutores volveuno máis susceptible ás instigaciones dos propios usuarios, que azuzaron á IA para que vertese todo tipo de consideracións extremas e de mal gusto.

Só unhas horas despois, localizado xa o problema e ante o aumento do uso abusivo do novo comportamento de Grok, ás 15:13 horas do Pacífico —ás 2 da mañá do mércores en España—, desactivouse a funcionalidade da IA de X para contestar os usuarios na cronoloxía.

Atopouse a raíz do problema e, a continuación, elimináronse as instrucións problemáticas que se engadiron por erro e probouse  de novo o comportamento de Grok, obrigándoo a responder de novo ás preguntas que lle fixeran verter opinións nazis. O proceso segue en marcha e, antes do novo lanzamento desta funcionalidade, aínda desactivada en X, séguense implementando procesos de validación para evitar que volva pasar.