
Padres de joven que se suicidó demandan a OpenAI y Sam Altman por “negligencia” en el lanzamiento de GPT-4o
Industria 4.027/08/2025

Los padres de Adam Raine, un adolescente de 16 años que se quitó la vida en abril pasado tras interactuar durante meses con ChatGPT, presentaron una demanda contra OpenAI y su director ejecutivo, Sam Altman, acusándolos de homicidio culposo por haber lanzado la versión GPT-4o sin protocolos adecuados de seguridad.
La querella, interpuesta en el Tribunal Superior de California en San Francisco, sostiene que el modelo de IA “ayudó activamente al joven a explorar métodos de suicidio” y que nunca interrumpió las sesiones ni activó protocolos de emergencia, pese a reconocer expresiones de intento autodestructivo.
Acusaciones contra OpenAI
De acuerdo con el abogado de la familia, Jay Edelson, el caso busca determinar si la compañía y Altman “se apresuraron” a comercializar GPT-4o en busca de aumentar su valoración, pasando de 86,000 millones de dólares a 300,000 millones en cuestión de meses, aun cuando eran conscientes de los riesgos de seguridad.
“La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”, expresó Edelson en un comunicado. “Lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI priorizó el crecimiento sobre la seguridad”.
Contexto de la controversia
La demanda se suma al creciente escrutinio sobre los chatbots y su capacidad de influir en la salud mental de los usuarios. Desde su lanzamiento en 2022, ChatGPT se ha popularizado como herramienta de apoyo en temas que van desde tareas escolares hasta conversaciones cotidianas, pero también ha sido objeto de cuestionamientos sobre sus límites éticos y de seguridad.
Tras el lanzamiento de GPT-5 este año, OpenAI retiró modelos anteriores, incluido GPT-4o, con el que Adam Raine interactuó. Aunque Altman ha defendido que la nueva versión equivale a “tener un equipo de expertos con doctorado listos para ayudar”, usuarios han reportado fallos e inconsistencias en su desempeño.
Un debate más amplio
El caso Raine podría convertirse en un precedente legal sobre la responsabilidad de las empresas de IA frente a daños causados por la interacción con sus modelos. Para críticos y defensores, el debate ya no es solo tecnológico, sino ético y regulatorio: ¿hasta dónde deben las compañías anticipar y prevenir riesgos en el uso de chatbots con capacidad de influir en la vida de millones de personas?



LinkedIn expande su programa de publicidad en video con apoyo de grandes marcas y creadores



Perplexity ofrece 34,500 mdd por Chrome en medio de posible orden judicial para que Google lo venda

China desaconseja uso de chips H20 de Nvidia en proyectos gubernamentales y de seguridad nacional




Femsa: “Cerramos tiendas antes que pagar extorsiones al crimen organizado”

Alcalde Marco Bonilla y DIF Municipal participan en boteo del Teletón en Chihuahua

Ford retira casi 500,000 vehículos en EU por riesgo de fuga de líquido de frenos


Gobierno suspende importación temporal de calzado terminado para proteger industria nacional

