Días antes de que dos estudiantes de posgrado de la Universidad del Sur de Florida desaparecieran, su compañero de cuarto Hisham Abugharbieh consultó a ChatGPT: “¿Qué pasa si a un humano lo ponen en una bolsa de basura negra y lo tiran en un contenedor? ”.
El 13 de abril el bot respondió que la idea sonaba peligrosa; Abugharbieh insistió: “¿Cómo lo descubrirían? ”. Las respuestas quedaron guardadas y ahora forman parte de la declaratoria que la fiscalía de Florida presentó para imputarlo de dos homicidios premeditados. El caso no es aislado.
Durante los incendios forestales de Los Ángeles se citaron chats con ChatGPT para acreditar un incendio provocado; en Virginia, diálogos con la IA de Snapchat fueron clave en un juicio por asesinato en 2024. Los investigadores valoran estos registros como reflejo del estado mental y los posibles móviles del sospechoso.

Ilia Kolochenko, abogado y experto en ciberseguridad, advierte que los usuarios confían en una confidencialidad que no existe. “Con frecuencia hacen preguntas muy directas porque creen que la conversación quedará entre ellos y la máquina”, señala. La expectativa de privacidad se desmorota ante la ley.
Ni ChatGPT de OpenAI ni Claude de Anthropic ofrecen el mismo secreto profesional que un abogado, un médico o un terapeuta. La firma legal de Texas que representa a Virginia Hammerle instruye a sus clientes: “Todo lo que escribas en un chat de IA puede ser exigido en un juicio”. Sam Altman, director general de OpenAI, reconoció el vacío en julio de 2025.
“La gente habla de sus problemas de pareja, usa al bot como coach o terapeuta, pero no hay privilegio legal que proteja esos datos. Si llega una orden judicial, la compañía debe entregar la información”, advirtió en el pódcast de Theo Von. La ausencia de marco normativo deja a los usuarios mexicanos en la misma indefensión.

Las conversaciones se almacenan en servidores en Estados Unidos y pueden ser solicitadas por fiscales de cualquier jurisdicción con tratado de asistencia legal. El secretario de Justicia de Florida anunció la semana pasada una investigación sobre las políticas de retención de datos de OpenAI y Anthropic.
El objetivo es determinar cuánto tiempo permanecen los chats en los servidores y bajo qué criterios se comparten con autoridades. Mientras tanto, los casos penales siguen acumulándose. Cada nuevo proceso refuerza la misma lección: preguntarle a la IA cómo ocultar un crimen deja una huella que la fiscalía puede usar en tu contra.
Etiquetas: Tecnología, OpenAI, ChatGPT, Anthropic, privacidad, investigación criminal, Tecnología · OpenAI, ChatGPT y Anthropic, Tecnología · OpenAI
