Empleados de OpenAI detectaron patrones de riesgo en ChatGPT vinculados a Jesse Van Rootselaar, pero sus peticiones de reportar a las autoridades fueron desestimadas. Dos meses después, el 14 de febrero de 2026, Van Rootselaar perpetró un tiroteo en Tumbler Ridge, Columbia Británica, que dejó ocho muertos.
La empresa enfrenta siete demandas interpuestas por familias de las víctimas, que acusan negligencia por no prevenir el ataque. El conflicto interno quedó expuesto en una reunión de verano donde investigadores, operaciones y el área legal discutieron cerca de 10 casos de usuarios con señales de peligro.

El equipo de investigaciones solicitó aumentar los reportes a fuerzas del orden, que actualmente se limitan a entre 15 y 30 anuales. El área legal, con respaldo del CEO Sam Altman, rechazó la propuesta aludiendo a la protección de la privacidad y al riesgo de causar daño colateral, especialmente en menores.

Los empleados argumentan que la política vigente exige una amenaza “inminente y específica” para activar una denuncia, un umbral que consideran demasiado alto. Casos que incluían fantasías homicidas recurrentes y consultas sobre métodos de ataque no fueron remitidos porque no cumplían ese criterio.
Tras la masacre, OpenAI publicó un comunicado en el que asegura haber endurecido los protocolos, pero no detalló los cambios implementados. Las demandas recién presentadas exigen daños y perjuicios y obligan a la compañía a entregar registros internos sobre el manejo de la cuenta de Van Rootselaar.

Los abogados de las víctimas sostienen que la decisión de preservar la privacidad del usuario prevaleció sobre la obligación de proteger la vida de terceros. El caso ha reabierto el debate internacional sobre el equilibrio entre confidencialidad y.
Etiquetas: OpenAI, ChatGPT, Tumbler Ridge, privacidad, seguridad digital, inteligencia artificial, Tecnología · OpenAI, ChatGPT y Anthropic, Tecnología · OpenAI
