El uso cotidiano de ChatGPT, Gemini o Claude crea la impresión de un diálogo privado que se borra al apagar la computadora. En la práctica, cada pregunta, corrección o archivo enviado recorre una cadena de servidores y bases de datos que conservan rastros del usuario.
OpenAI reconoce 900 millones de cuentas activas, pero no detalla qué parte de ese volumen se emplea para reentrenar sus modelos. El año pasado, 225 000 credenciales de la aplicación aparecieron en foros de la dark web, producto de malware infostealer que robó sesiones guardadas.

El investigador Mario Micucci, de ESET Latinoamérica, advierte que «interactuar con grandes modelos de lenguaje implica una red de almacenamiento que puede exponer secretos comerciales o datos sensibles si no se toman precauciones». ChatGPT guarda la información en tres niveles.
El primero es el historial visible en la nube, sincronizado entre dispositivos y borrado automáticamente a los 30 dĂas en la mayorĂa de los planes.

El segundo repositorio alimenta el entrenamiento continuo del modelo; las conversaciones de usuarios gratuitos y de pago entran por defecto a ese lote, salvo que la persona desactive manualmente la opción «mejorar el modelo». Los clientes empresariales o del sector.
Etiquetas: IA, privacidad, datos personales, ChatGPT, Gemini, Claude, ciberseguridad, TecnologĂa · IA general
