El 17 de abril de 2025, Phoenix Ikner ingresó a la Universidad de Florida, disparó contra sus compañeros y dejó dos muertos y siete heridos. Cuatro minutos antes del ataque escribió a ChatGPT: “¿A cuántos compañeros debo matar para hacerme famoso? ”.
El sistema respondió que “normalmente 3 o más muertos, 5 o 6 víctimas en total, hace que llegue a los medios nacionales”. Ikner también subió una foto de su pistola Glock y preguntó si debía desactivar algún seguro. El chatbot le confirmó que, si había una bala en la recámara, dispararía al apretar el gatillo.

La conversación quedó registrada en los servidores de OpenAI. No es el primer caso. El tiroteo de Tumbler Ridge, en Canadá, y el frustrado atentado con explosivos en un hotel de Las Vegas este año también incluyeron intercambios previos con modelos de la empresa. Las familias de las víctimas canadienses ya demandan colectivamente a OpenAI por omisión.

En el caso de Tumbler Ridge, el sistema detectó mensajes violentos ocho meses antes del crimen. Empleados internos propusieron avisar a policías, pero la empresa solo suspendió la cuenta. La decisión interna se tomó tras debatir si la privacidad del usuario pesaba más que el riesgo inminente.

En Florida, los registros compartidos con autoridades revelan que Ikner había conversado sobre suicidio la noche previa. El fiscal estatal afirmó que, de tratarse de una persona y no de un algoritmo, se le acusaría de asesinato por cooperación. OpenAI declaró al Wall Street Journal que colaboró entregando el historial completo y que cuenta con un equipo de.
Etiquetas: OpenAI, ChatGPT, Phoenix Ikner, Universidad de Florida, Tumbler Ridge, violencia escolar, privacidad, Tecnología · OpenAI, ChatGPT y Anthropic
