Las luces y sombras de ChatGPT en su tercer cumpleaños: motor de búsqueda, compañero de estudios y peligroso confidente
SOCIEDAD
El principal «chatbot», que cuenta con 800 millones de usuarios se ha convertido en una herramienta muy útil, aunque hay debates por el posible impacto en la salud mental de los adolescentes
30 nov 2025 . Actualizado a las 18:15 h.Tres escasos años desde su lanzamiento le han llegado a ChatGPT para cambiar radicalmente la vida de la gente. El chatbot más famoso, lanzado por la compañía OpenAI el 30 de noviembre del 2022, celebra su tercer aniversario habiendo pasado de ser un simple buscador o generador de contenido a convertirse en un compañero de trabajo, de estudios o hasta —tristemente— en el confidente y paño de lágrimas de muchos de sus usuarios. A pesar de su utilidad como herramienta, cada vez hay más debate sobre el uso potencialmente peligroso que puede suponer para algunas personas, especialmente en la salud mental de los adolescentes.
Con más de 800 millones de usuarios, su uso ha variado a lo largo de los años, y ahora muchos lo usan sin pudor para redactar correos electrónicos, artículos, dar solución a ejercicios, realizar trabajos escolares y universitarios o hasta tesis doctorales, con todo lo que ello implica, ya que recientes estudios de la BBC o de la Universidad de Stanford han demostrado que la generación de textos de actualidad que hace el chatbot presenta un elevadísimo número de inconcreciones o hasta errores graves.
La evolución del chatbot ha sido imparable. Cuando apareció ChatGPT, lo hizo con la versión GPT3.5, que le permitía responder preguntas y mantener una conversación realista con un usuario, así como generar contenido a partir de una descripción en texto. Con GPT-4 se introdujeron las capacidades multimodales con la comprensión de imágenes y de voz,que llevó la interacción a nuevas cotas, al no depender ya únicamente del texto, si bien fue con GPT-4o cuando la multimodalidad se convirtió en nativa, al poder comprender y generar una combinación de entradas de texto, audio e imagen con gran velocidad.
La compañía apostó entonces por mejorar las capacidades de razonamiento con modelos centrados exclusivamente en este área, los conocidos como la serie o. De esta forma, ChatGPT mejoró las respuestas que da, al dedicar más tiempo a pensar en ellas, lo que ha permitido que resuelva tareas y problemas complejos en áreas como ciencia, programación y matemáticas. Pudo dar sus primeros pasos en la navegación autónoma por internet con las capacidades de agente de OpenAI o3 y o4-mini, dos modelos que, según la compañía, estaban «entrenados para razonar sobre cuándo y cómo utilizar herramientas para producir respuestas detalladas y reflexivas en los formatos de salida correctos» y hacerlo, además con rapidez, en menos de un minuto.
ChatGPT destaca actualmente como un experto en cualquier área de nivel doctorado, debido a los avances en razonamiento que trajo GPT-5 este verano, y por poder generar un programa completo de manera autónoma y en poco tiempo a partir de unas pocas indicaciones.
El refinamiento que introduce el modelo se extienden a su capacidad para comunicarse con los usuarios, más natural e incluso adaptada a distintas personalidades.
Luces y sombras
Las interacciones con ChatGPT puede producir lo que se conoce como alucinaciones y engaños, es decir, las respuestas en las que se inventa información o la usa de forma incorrecta.
No es, en realidad, un problema exclusivo de ChatGPT, sino que también aparece en otros chatbots como Gemini, Claude, Perplexity y Grok. Pero el principal problema radica en que estos se consideran una fuente de información, y las alucinaciones pueden hacer que la gente dé por ciertos datos que no lo son, sin comprobarlos antes. Como especifica Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universidad Oberta de Catalunya, no se trata de errores, a pesar de que se trate de datos erróneos. El experto incide en que se trata de «una característica del sistema de construcción de información» en la que se basan los asistentes de IA generativa, ya que «en realidad solo son grandes motores de remezclas de información que suenan coherentes».
Para mitigarlos, OpenAI, al igual que las empresas responsables del los otros chatbots, suelen reforzar el entrenamiento de los modelos de base y configurarlos para que muestren en los enlaces de donde han recogido la información y digan claramente que no pueden completar con éxito una petición o tarea e incluso negarse a responder a preguntas cuando suponen un riesgo.
Esto último enlaza con otro de los problemas que han surgido con el uso de ChatGPT: el agravamiento de los problemas de salud mental, debido a la dependencia emocional que ha nacido en algunas personas al usar el chatbot como si fuese un amigo o confidente, propiciado por la interacción mediante conversación y el lenguaje natural.
OpenAI asegura que GPT-5 identifica mejor las señales en la conversación que avisan síntomas de salud mental y malestar emocional y reduce la aparición de respuestas no deseadas —que agravan la situación—, manteniendo las salvaguardias también en las conversaciones largas, donde normalmente tienden a fallar, y facilitando recursos para buscar ayuda.
Al tiempo que ha mejorado la respuesta a los problemas de salud mental, también ha hecho cambios que restringen el uso que hacen de ChatGPT los adolescentes, con los que ha introducido herramientas para que los padres y tutores supervisen sus interacciones y puedan limitar la aparición de determinados contenidos. También prepara un sistema que detecte la edad, para ajustar la experiencia.
Estos cambios han llegado después de que una familia estadounidense demandara a la compañía tecnológica por el suicidio de su hijo adolescente, Adam Raine, al entender que ChatGPT jugó un papel destacado en la decisión que tomó, al fallar las salvaguardias. La empresa, en cambio, niega la responsabilidad, argumentando que fue culpa de un «uso indebido» del chat de IA, aunque los cambios establecidos tras el caso parecen indicar que se podrían haber establecido barreras más rígidas de antemano.
Estos problemas surgieron con el uso más continuo y profundo de ChatGPT, pero desde el inicio, y dada su capacidad para generar contenido, destacaron los que tienen que ver con los derechos de autor, por la cantidad de datos —texto, vídeo, imágenes, audio— que requiere el entrenamiento de los modelos, que no siempre que obtienen de fuentes de libre uso.
Por último, no hay que olvidar la ciberseguridad. Aunque OpenAI y el resto de las empresas desarrolladoras de estos modelos aseguran implementar limitaciones y barreras, una de las primeras aplicaciones que se detectaron con ChatGPT fue la generación de malware y desde entonces los cibercriminales han refinado su uso para intentar impulsar campañas maliciosas, generar contenido con información sesgada o monitorizar las conversaciones en redes sociales.
Los malos usos de este chatbot se extienden a la generación de vídeos y fotografías que simulan situaciones reales, o grabaciones que reproducen con gran realismo la voz de personajes públicos, lo que se conoce como deepfake, se utilizan para la promoción de noticias falsas, desinformación o manipulaciones de tipo propagandístico y pornográfico, y fraudes financieros.