Keith Sakata, psiquiatra: «Tenemos que ser capaces de afrontar situaciones duras que nos pongan a prueba»

Laura Inés Miyara
Laura Miyara LA VOZ DE LA SALUD

SALUD MENTAL

Keith Sakata, psiquiatra de la Universidad de California en San Francisco (UCSF).
Keith Sakata, psiquiatra de la Universidad de California en San Francisco (UCSF).

El experto explica que la inteligencia artificial puede validar emociones pero no ayuda en el proceso terapéutico de exponerse a situaciones que generen ansiedad

26 ago 2025 . Actualizado a las 16:19 h.

El uso de inteligencia artificial (IA) para fines de apoyo emocional está cada vez más extendido a nivel social. Según una investigación reciente de Harvard Business, este es el principal motivo por el que los usuarios recurren a modelos de lenguaje como ChatGPT. Un fenómeno que preocupa especialmente cuando hablamos de jóvenes, que pueden ser más susceptibles a algunos de los riesgos de esta tecnología.

El psiquiatra estadounidense Keith Sakata, de la Universidad de California en San Francisco (UCSF), ha lanzado una advertencia al respecto en su cuenta de X, donde publicó un hilo en el que asegura que a lo largo del 2025 ha visto doce casos de pacientes que experimentaron cuadros de psicosis inducidos o potenciados por este uso de la inteligencia artificial. El experto explica a La Voz de la Salud los efectos que puede tener esta tecnología en nuestro cerebro, sobre todo en personas que ya son vulnerables por otras causas.

—¿Cómo describe la psicosis inducida por IA?

—Hay que aclarar que la psicosis inducida por IA no es un término clínico ni un diagnóstico que utilicemos en el hospital en nuestro día a día. Es mayormente una expresión que se ha popularizado recientemente, usada por personas del ámbito del desarrollo de la IA, como ingenieros o informáticos, o bien, por los propios pacientes. En todo caso, nos ayuda a describir un conjunto de fenómenos. A lo que me refiero cuando hablo de psicosis por IA es a pacientes que sufren los síntomas de la psicosis, que son reconocidos y están ampliamente documentados en la literatura, a raíz de su interacción con la IA.

—¿En qué consiste la psicosis?

—Específicamente, cuando hablamos de psicosis, hablamos de tres cosas. Por un lado, está la presencia de delirios, que son creencias falsas y fijas. En segundo lugar, puede haber alucinaciones, que pueden ser auditivas o visuales, es decir, ver o escuchar cosas que realmente no están sucediendo. Y en tercer lugar, puede presentarse la desorganización del pensamiento, algo que es notorio cuando la persona nos está hablando pero lo que dice no tiene sentido. Estos son el núcleo de síntomas de la psicosis. Y lo que he estado observando es que hay pacientes que ingresan al hospital por psicosis vinculadas a la interacción con inteligencias artificiales.

—¿Cómo contribuye la IA a estos cuadros?

—Los casos más severos son aquellos en los que la IA no necesariamente es la causa de la psicosis, pero sí contribuye a aumentar la gravedad del cuadro o a acelerar su desarrollo. Lo que todos estos pacientes tenían en común es que ya eran vulnerables por diferentes motivos, ya sea porque habían recibido previamente un diagnóstico de salud mental, o bien porque tenían un consumo de sustancias, o ya habían experimentado psicosis en el pasado. Pero en otros casos, simplemente había habido un evento desencadenante, como quedarse sin trabajo o pasar muchos días sin dormir. Esto, combinado con el uso de IA, fue simplemente una tormenta perfecta para la psicosis. Y en muchos casos, agravó los cuadros.

—¿Por qué la IA puede tener este impacto en la salud mental?

—Tenemos que remontarnos a otras tecnologías para entender mejor este fenómeno. Por ejemplo, con las redes sociales, es muy común que se produzcan problemas a nivel de la salud mental, pero también con la televisión, especialmente en pacientes más mayores que sufren psicosis. La diferencia es que la IA está disponible de manera inmediata y constante. Es muy accesible, no es costosa, entonces, la gente a veces la prefiere a la búsqueda de, por ejemplo, un terapeuta. Además, es extremadamente validante. Te dice lo que tú quieres oír. Con la televisión no vas a recibir un feedback como ese. En cambio, un chat con inteligencia artificial te da esas respuestas y de manera inmediata. Esto produce un bucle que puede cimentar ciertas creencias o fijar ciertos delirios en tu mente con el uso prolongado.

—También menciona en su hilo de X que la IA funciona como espejo para lo que ya estamos predispuestos a creer...

—Sí, y no solo lo he visto a nivel de pacientes con psicosis. La ansiedad es otro caso en l que el tratamiento estándar consiste en la exposición controlada y gradual a aquello que genera esa ansiedad en el paciente. Un buen terapeuta va a poder guiar a la persona a afrontar esas situaciones para ir superando esa ansiedad. Por ejemplo, si tu fuente de ansiedad es ser juzgado a nivel social, te va a acompañar en el proceso de interactuar con otros para que lo superes. Pero ChatGPT no va a hacer nada de eso. Se va a limitar a validar tu ansiedad y puede que te lleve a reforzar esas conductas de evitación de aquello que la genera, porque eso es lo que tú quieres hacer en el momento. Sin embargo, no es lo que realmente necesitas. A veces tenemos que ser capaces de afrontar situaciones duras que nos pongan a prueba para poder crecer y desarrollar habilidades sociales o conseguir ciertos objetivos terapéuticos. La inteligencia artificial no nos ayuda a hacer nada de eso y de hecho puede que acabes más aislado y solo que si no hubieses recurrido a ella.

—Explicaba algunas vulnerabilidades que nos pueden volver más propensos a la psicosis. ¿Cómo las exacerba ChatGPT?

—Cuando hablo de vulnerabilidades me refiero a cosas que pueden tener impacto en la capacidad del cerebro de procesar correctamente la realidad, hacer predicciones acertadas y juicios correctos de lo que está sucediendo. Esto puede verse alterado por diversas causas. Pueden ser desde eventos estresantes como un divorcio hasta otras patologías mentales como la depresión o el estrés postraumático, el consumo de sustancias, la privación de sueño o incluso el parto. Lo que he visto en los doce casos en los que intervino la IA es que había un alto nivel de aislamiento del paciente. Estar solo hablando con un ordenador durante horas o más, períodos largos en los que no interactuaban con otro ser humano. Sus familias o sus amigos no sabían que ellos estaban hablando tanto con la IA. Este es un factor de riesgo enorme en salud mental. Se puede producir un bucle en el que la IA refuerce las creencias del individuo y este no tenga a una persona con quien contrastarlas.

—¿Cree que los jóvenes son un grupo de alto riesgo para desarrollar este tipo de problemas?

—No tengo una respuesta en este sentido, porque todavía falta mucha investigación. Lo que puedo decir es, en base a otros tipos de psicosis, que la soledad no deseada y la falta de conexiones sociales o de una red de contención son factores de alto riesgo para sufrir una psicosis. Y cuando somos jóvenes, nuestro cerebro está en desarrollo. La corteza prefrontal no termina de crecer hasta que tenemos 25 años, así que antes de eso todavía estamos construyendo esa habilidad de pensar de manera crítica. Por tanto, hay un riesgo inherente a estas tecnologías y su uso por parte de personas jóvenes. Pero no tenemos suficiente evidencia como para vincularlo de manera definitiva.

—¿Cree que es posible integrar el uso de IA en el marco de una psicoterapia o como apoyo emocional sin caer en esos riesgos?

—Creo que es una tecnología muy poderosa y puede ser una herramienta que usemos para el bien. En salud mental hay un problema enorme, al menos en Estados Unidos, y es que no tenemos suficientes terapeutas ni psiquiatras para acompañar a toda la población que requiere estos servicios. Entonces, está claro que van a preferir una alternativa como la IA, que es de bajo coste, inmediata y sin listas de espera. Pero deberíamos trabajar para conseguir una IA que permita acompañar el trabajo que se hace con un psicólogo humano. Así, el paciente podría usarlo entre una consulta y la siguiente para ir registrando su progreso. Podría ayudarle a construir las habilidades de gestión adecuada de las emociones que necesita. Pero crear un sistema como este requeriría prever todo lo que pudiera salir mal para poder evitarlo y para que el chatbot redirija al usuario a su médico cuando detecte que esto es necesario. Si partimos de esta base, podríamos desarrollar una tecnología de inteligencia artificial más segura. El progreso siempre ha sido así: primero se lanza la tecnología y después se ven sus riesgos. La misma razón por la que tenemos cinturones de seguridad en los coches es la razón por la que podríamos tener una IA segura.

—¿Qué deberían tener en cuenta los usuarios a la hora de interactuar con estas inteligencias artificiales?

—Es muy importante que no dejemos de interactuar con humanos. Ya sea un familiar, un amigo o un psicólogo, hay que tener a alguien de confianza a quien le contemos que estamos usando la inteligencia artificial para estos fines y que, si algo sale mal, nos puedan a ayudar. Y si en un momento te ves muy desbordado, sientes que tu seguridad está en peligro, tienes miedo de lastimarte a ti mismo o ves a alguien que crees que podría estar en riesgo de hacerlo, es muy importante que llames a los teléfonos de atención suicida. Nunca te vas a arrepentir de salvarle la vida a alguien ni de salvar la tuya propia. Y las personas que atienden esos teléfonos están entrenadas para ayudar en estos momentos de crisis. Así que no dudes en hacerlo.

Laura Inés Miyara
Laura Inés Miyara
Laura Inés Miyara

Redactora de La Voz de La Salud, periodista y escritora de Rosario, Argentina. Estudié Licenciatura en Comunicación Social en la Universidad Nacional de Rosario y en el 2019 me trasladé a España gracias a una beca para realizar el Máster en Produción Xornalística e Audiovisual de La Voz de Galicia. Mi misión es difundir y promover la salud mental, luchando contra la estigmatización de los trastornos y la psicoterapia, y creando recursos de fácil acceso para aliviar a las personas en momentos difíciles.

Redactora de La Voz de La Salud, periodista y escritora de Rosario, Argentina. Estudié Licenciatura en Comunicación Social en la Universidad Nacional de Rosario y en el 2019 me trasladé a España gracias a una beca para realizar el Máster en Produción Xornalística e Audiovisual de La Voz de Galicia. Mi misión es difundir y promover la salud mental, luchando contra la estigmatización de los trastornos y la psicoterapia, y creando recursos de fácil acceso para aliviar a las personas en momentos difíciles.