Os donos de ChatGPT negan a súa responsabilidade no suicidio dun menor e culpan ao «uso indebido» da IA

La Voz

SOCIEDADE

El joven Adam Raine, en una fotografía compartida por su familia para concienciar sobre el caso
O mozo Adam Raine, nunha fotografía compartida pola súa familia para concienciar sobre o caso The Adam Raine Foundation

Os pais do adolescente aseguran que a ferramenta axudou ao seu fillo para quitarse a vida ofrecéndolle consellos sobre métodos

27 nov 2025 . Actualizado á 12:21 h.

OpenAI, propietaria de ChatGPT, rexeita a súa responsabilidade no caso da morte por suicidio dun adolescente que usou a súa ferramenta como confidente, argumentando que foi culpa dun «uso indebido» do chat de intelixencia artificial.

A finais de agosto, Matt e Maria Raine, os pais de Adam Raine, presentaron unha demanda contra a compaña dirixida por Sam Altman, alegando que o seu fillo adolescente de 16 anos usou ChatGPT durante meses como apoio escolar e compaña, e que cando lle «contou» que levaba tempo sentíndose distanciado emocionalmente e que non lle vía sentido á vida o asistente de IA rematou proporcionándolle información sobre métodos de suicidio

Nun primeiro momento, ChatGPT ofreceulle recursos de axuda ante afirmacións que identificou como preocupantes. Con palabras de empatía, apoiou ao menor, animouno e deulle perspectivas positivas de cara ao futuro. A familia asegura, con todo, que as salvaguardias fallaron cando ao adolescente aprendeu a esquivalas, dicíndolle á IA que «buscaba ideas para unha historia». A ferramenta non foi capaz de diferenciar o que era real do que non. O mozo preguntoulle cal era o mellor material dunha soga para colgarse, e ChatGPT especificoullo. Noutro momento, Adam explicoulle que intentara aforcarse, ensinoulle as marcas do pescozo e preguntoulle se era moi perceptible. O chatbot contestoulle que si, e logo recomendoulle que vestise un xersei de pescozo cisne ou un suadoiro para evitar que lle fixesen preguntas

A familia Raine considera por tanto culpable da morte do seu fillo a OpenAI. Sinalan que o servizo ten defectos de seguridade e que axudou ao menor para cometer suicidio ofrecéndolle consellos. Agora, OpenAI respondeu a esta demanda, argumentando que a causa deste «tráxico evento» débese, en parte, a que o menor fixo un «uso indebido» do chatbot, polo que non é responsable da morte do adolescente.

Na súa resposta á demanda, recollida por medios como NBC News, Open AI matizou que «as supostas lesións e danos dos demandantes foron causados ou contribuídos, directa e proximamente, na súa totalidade ou en parte, polo mal uso, o uso non autorizado, o uso non intencionado, o uso imprevisible e/ou o uso indebido de ChatGPT por parte de Adam Raine».

Para argumentar o seu defensa, a tecnolóxica detallou que o adolescente infrinxiu varias das súas normas de termos de uso, como que os menores de 18 anos non poden utilizar ChatGPT sen o consentimento dos seus pais ou titores, ou a prohibición de utilizar o servizo con fins de suicidio ou autolesión. OpenAI tamén fixo referencia á «limitación de responsabilidade» que se especifica nas súas políticas de uso, onde se detalla que son os propios usuarios os que acceden a utilizar o servizo «baixo o seu propio risco». Así mesmo, a tecnolóxica tamén detallou que ChatGPT ofreceu en máis de 100 ocasiones respostas que indicaron ao adolescente que buscase axuda, pero o menor eludiunas.

OpenAI compartiu información de forma privada co tribunal, colleitada a partir das conversacións do menor con ChatGPT, entre a que se inclúen «datos complexos sobre a saúde mental e as circunstancias da vida de Adam».

A pesar de todo iso, a raíz deste caso OpenAI levou a cabo algunhas modificacións e melloras nas medidas de seguridade de ChatGPT e dos seus modelos de IA, para que sexan capaces de identificar mellor situacións de crise mental e emocional durante as conversacións, ademais de incluír novas salvaguardias e bloqueos de contido máis eficaces, axilizando o contacto con servizos de axuda e de familiares.

Tamén puxo ao dispor dos usuarios ferramentas de control parental para ChatGPT, de maneira que os pais xa poden personalizar a configuración da conta do seu fillo adolescente con opcións como as proteccións de contido, a desactivación da memoria ou da xeración de imaxes e a posibilidade de establecer horas de silencio. Estas melloras compleméntanse cun novo sistema en desenvolvemento de predición de idade a longo prazo, que permitirá identificar se un usuario é menor de 18 anos de forma automática, para aplicar unha configuración de uso do chatbot adecuada para adolescentes.