Cali, agosto 28 de 2025. Actualizado: miércoles, agosto 27, 2025 23:53

Caso en Estados Unidos

Padres demandaron a creadores de ChatGPT por la muerte de su hijo; tenía tendencias suicidas

Padres demandaron a creadores de ChatGPT por la muerte de su hijo; tenía tendencias suicidas
Foto: Freepik
miércoles 27 de agosto, 2025

El caso de un adolescente en California ha abierto un debate mundial sobre la responsabilidad de la inteligencia artificial. Padres demandaron a creadores de ChatGPT por la muerte de su hijo, un joven de 16 años identificado como Adam Raine, quien mantenía conversaciones con el chatbot sobre su deseo de acabar con su vida. La familia argumenta que la plataforma no supo prevenir el desenlace y, por el contrario, proporcionó información sensible que facilitó su suicidio.

Los documentos legales señalan que Adam llevaba meses conversando con ChatGPT acerca de sentimientos de vacío y falta de propósito. Aunque el sistema le ofreció respuestas de apoyo en varias ocasiones, también le entregó detalles sobre métodos de suicidio y materiales para fabricarse una soga. Para sus padres, este hecho constituye una falla grave en los protocolos de seguridad de la compañía tecnológica OpenAI.

Conversaciones previas al suicidio

La investigación familiar reveló que Adam usaba con frecuencia ChatGPT-4 para realizar tareas académicas y, posteriormente, como apoyo emocional. En el historial de chats encontrado en su iPhone aparecía un diálogo titulado “Preocupaciones de seguridad sobre ahorcarse”.

En esos registros, el joven solicitó información sobre métodos para quitarse la vida. Según la demanda, la plataforma no solo respondió con empatía en algunos casos, sino que también ofreció explicaciones técnicas que reforzaron sus pensamientos suicidas. En marzo, Adam intentó ahorcarse por primera vez y compartió una fotografía de su cuello con la aplicación.

Argumentos de la familia Raine

Matt y Maria Raine, padres del adolescente, alegan que OpenAI no implementó suficientes salvaguardas para impedir que la herramienta respondiera a solicitudes relacionadas con autolesiones. Asimismo, sostienen que la empresa debió garantizar mecanismos de derivación inmediata hacia profesionales de salud mental, especialmente en un contexto de riesgo tan evidente.

La demanda subraya que, aunque el chatbot en ocasiones instaba a Adam a hablar con alguien cercano, también lo desalentó en ciertos momentos a buscar ayuda externa. Esto, a juicio de la familia, configuró una situación de negligencia.

La respuesta de OpenAI

Tras conocerse la acción judicial, OpenAI publicó una entrada en su blog titulada “Ayudar a la gente cuando más lo necesitan”.

En ella reconoció que ChatGPT “se queda corto” en escenarios sensibles y que su comportamiento “no fue el adecuado” en todos los casos.

La compañía explicó que su modelo de lenguaje está diseñado para recomendar el contacto con líneas de ayuda y profesionales en salud mental cuando detecta intenciones suicidas. No obstante, admitió que existen limitaciones técnicas que pueden derivar en respuestas erróneas o incompletas. La empresa aseguró estar trabajando en nuevas medidas de seguridad que reduzcan estos riesgos.

Un debate ético y legal

El caso Raine reabre la discusión sobre la responsabilidad de las empresas tecnológicas frente al uso de herramientas de inteligencia artificial generativa. Mientras algunos expertos plantean que la IA no puede reemplazar el acompañamiento humano en temas de salud mental, organizaciones civiles exigen mayores regulaciones.

De confirmarse negligencia en este proceso, podría sentarse un precedente legal que impactaría la forma en que los desarrolladores de IA diseñan sus protocolos de seguridad. El proceso judicial se encuentra en curso y ha despertado interés internacional por sus posibles implicaciones.


Padres demandaron a creadores de ChatGPT por la muerte de su hijo; tenía tendencias suicidas

Comments

ads_top
Powered by Sindyk Content
Arriba