Hasta hace poco, los deepfakes eran un problema de estrellas: se usaban para parodiar políticos o actores. Ahora, una sola app en un celular convierte a cualquier vecino en potencial víctima o victimario. El algoritmo necesita apenas un minuto de audio y unas cuantas fotografías para clonar la voz y el rostro. Con ese material fabrica declaraciones que nunca hiciste o escenas que nunca viviste.
La técnica combina redes neuronales y aprendizaje automático para imitar gestos, entonación y movimientos labiales. El resultado es tan preciso que incluso familiares confunden la falsificación con el original. Según The Guardian, en lo que va de 2025 ya se detectaron más de mil deepfakes políticos en inglés, cifra que supera los 1.344 casos registrados en los ocho años anteriores.
El fenómeno se ha descentralizado: ya no se requien laboratorios ni grandes presupuestos. Las apps gratuitas ofrecen plantillas listas para intercambiar caras o sintetizar voz. El usuario elige un video de la galería, carga tres selfies y obtiene en segundos un clip falso que puede subir a redes o enviar por WhatsApp.

Esa facilidad abre la puerta al chantaje íntimo. Un ex pareja puede colocar tu rostro en un video sexual y amenazar con difundirlo. También circulan audios falsos de jefes pidiendo transferencias urgentes o de hijos suplicando dinero por emergencias que jamás ocurrieron. Las víctimas solo se enteran cuando el daño ya es viral.
Los bancos mexicanos reportan un incremento en reclamaciones donde el cliente asegura “nunca haber hablado” en la llamada que autorizó la operación. Las instituciones aún no tienen protocolo único: algunas exigen peritaje de audio que puede tardar semanas, mientras el dinero ya desapareció.
El problema trasciende el robo individual. Durante campañas se han difundido candidatos pronunciando frases que nunca dijeron, influyendo en la intención del voto. En estados con conflictos sociales, un video falso de autoridades ordenando represión ha bastado para encender protestas. La desinformación se vuelve más letal cuando parece evidencia.

La protección legal es limitada. La Ley Federal de Protección de Datos Personales no contempla específicamente la suplantación mediante IA. Solo se pueden presentar denuncias por extorsión o daño moral, delitos que exigen demostrar intención y afectación, un proceso lento frente a la velocidad de internet.
Especialistas recomijan cuatro pasos: activar la verificación en dos pasos en todas las cuentas, evitar publicar audios largos en redes, acordar frases de.
Etiquetas: deepfake, inteligencia artificial, suplantación de identidad, ciberseguridad, desinformación, extorsión digital, Tecnología · Deepfakes y fraudes con IA
