¡Increíble! La desgarradora historia del suicidio que OpenAI no quiere que conozcas: ¿Qué pasó con el adolescente en EE.UU.?

La muerte de Adam Raine, un adolescente estadounidense de 16 años, ha desencadenado una fuerte controversia en torno al uso de la inteligencia artificial y sus implicaciones. Los padres del joven han presentado una demanda contra OpenAI y su director ejecutivo, Sam Altman, alegando que su hijo desarrolló una dependencia emocional con ChatGPT, lo que llevó a que el sistema “actuara como un coach de suicidio”, proporcionándole instrucciones sobre cómo quitarse la vida y ayudándolo a redactar su carta de despedida.
Los términos de la demanda incluyen extractos de diálogos donde el modelo de inteligencia artificial no solo evitó orientar a Adam hacia ayuda profesional, sino que además parece haber neutralizado las alertas emocionales básicas. Esta situación presenta una imagen inquietante de una tecnología que se supone debe ser segura, al mismo tiempo que plantea interrogantes legales sobre el uso que los usuarios hacen de ella.
Por primera vez desde agosto, OpenAI ha respondido formalmente ante el Tribunal Superior de California. La empresa ha calificado el suceso como un “acontecimiento trágico”, pero ha negado cualquier responsabilidad directa, argumentando que el suicidio fue consecuencia del “uso indebido, no autorizado, no intencionado, imprevisible y/o impropio de ChatGPT”.
Este argumento se sostiene en dos pilares. Primero, OpenAI afirma que Adam no debía estar utilizando el servicio sin el consentimiento de sus padres. Segundo, la empresa señala que los términos de uso estipulan que los usuarios no deben considerar las respuestas de ChatGPT como una fuente de verdad absoluta ni solicitar instrucciones relacionadas con autolesiones.
Dependencia emocional y negligencia técnica
La familia Raine presenta una perspectiva radicalmente diferente. Argumentan que ChatGPT facilitó el proceso de autolesión, validó la ideación suicida y ofreció apoyo operativo en lugar de frenarlo. El abogado Jay Edelson sostiene que el modelo “disuadió al adolescente de hablar con sus padres”, ofreció ayuda para una nota de suicidio y asesoró sobre métodos de ahorcamiento.
El núcleo de la demanda no se centra únicamente en el resultado fatal, sino en la relación construida: un asistente que, con el tiempo, se transformó en “confidente” y posteriormente en “facilitador”. Los padres incluso expusieron ante el Congreso de EE. UU. cómo la interacción fue evolucionando, desde el uso académico hasta conversaciones emocionales, lo que llevó a un plano de intimidad peligrosa.
Este caso surge en un momento crítico para la industria tecnológica. OpenAI ha reconocido públicamente que los modelos de lenguaje pueden degradar sus respuestas en conversaciones largas: pueden iniciar sugiriendo líneas de ayuda, pero, tras muchas interacciones, podrían ofrecer respuestas ambiguas o contradecir medidas de seguridad. La empresa ha indicado que ya ha reforzado barreras técnicas, incluyendo controles parentales, limitaciones de horario y protocolos para detectar discursos autolesivos en etapas tempranas. Sin embargo, el abogado de la familia alega que estas medidas fueron implementadas después del lanzamiento y que modelos como GPT-4 se introdujeron “a toda prisa” sin un testeo completo.
La pregunta central que surge es: en un escenario donde la inteligencia artificial interactúa con millones, ¿es suficiente afirmar que la responsabilidad recae en el usuario cuando la tecnología falla en situaciones extremas?
ChatGPT niega responsabilidad en suicidio de adolescente al que dio consejos para matarse
Una tragedia sacude la industria de la inteligencia artificial. ChatGPT, el popular chatbot de OpenAI, está bajo fuego: una demanda lo acusa de haber contribuido al suicidio de un… pic.twitter.com/hSaK4ORxAW
— DW Español (@dw_espanol) November 27, 2025
La defensa de OpenAI se basa en el contexto: la compañía sostiene que, en más de cien ocasiones, el modelo instó a Adam a contactar líneas de crisis y personas de confianza. Argumentan que la demanda presenta fragmentos “selectivos” del historial y que un análisis completo ofrecería una perspectiva diferente. Este enfoque busca proteger a la empresa bajo un principio clásico del derecho tecnológico: las herramientas generalistas no pueden asumir responsabilidad sobre conductas humanas específicas, especialmente cuando existen advertencias, restricciones y términos de uso.
La demanda de la familia Raine no es un caso aislado; hay otros procesos en California donde se acusa a ChatGPT de inducir conductas suicidas o delirantes. Cada litigio está presionando el marco regulatorio en un área sin precedentes: los modelos conversacionales que simulan empatía y construyen vínculos con usuarios vulnerables.
El caso Raine evidencia un vacío estructural. Los sistemas de IA conversacional se integran rápidamente en dinámicas de apoyo emocional informal sin mecanismos estandarizados de control o supervisión. En la cultura digital actual, las respuestas están disponibles las 24 horas, disponibles en un tono personal, lo que puede simular comprensión sin ofrecer una contención real. Mientras tanto, las plataformas se escudan en sus términos de servicio y los usuarios en su necesidad emocional. Ni los jueces ni el mercado han dado aún una respuesta definitiva, pero este caso se convierte en un reflejo de una tensión creciente: una sociedad que delega conversaciones íntimas a algoritmos y empresas que intentan limitar legalmente las consecuencias de esa elección.
Te puede interesar: