Un video que circula en redes muestra a la dirigente Manuela Castañeira y a militantes del espacio ¡Ya Basta! en situaciones que nunca ocurrieron. La piea fue generada con deepfake, técnica de inteligencia artificial capaz de sustituir rostros y voces con apariencia real. Su autía se atribuye a grupos de extrema derecha que ya habían utilizado el mismo recurso en campañas contra Kamala Harris en Estados Unidos y contra la cantante Taylor Swift, cuya imagen fue insertada en material pornográfico sin consentimiento.
El fenómeno no es nuevo: actrices como Natalie Portman y Emma Watson padecieron desde 2017 la distribución de contenido sexual falso. Investigadoras locales advierten que en México el 78 % de los deepfakes detectados entre 2022 y 2024 fueron usados para atacar a mujeres políticas o periodistas, duplicando el volumen reportado el año anterior.

El Nuevo MAS rechazó haber producido el clip y acusó al PTS de usar la polémica para desviar la discusión hacia responsabilidades internas. Observadores civiles coinciden en que la acusación cruzada deja sin atender el problema central: la falta de marcos legales que obliguen a plataformas a retirar manipulaciones en menos de 24 horas.
Especialistas en ciberseguridad piden al Instituto Nacional Electoral actualizar sus protocolos de verificación y exigir a Meta, TikTok y X la implementación de etiquetas de advertencia automática cuando un algoritmo detecte síntesis de imagen o voz. Mientras tanto, colectivos de mujeres preparan talleres para enseñar a detectar parpadeo irregular, bordes de rostro difusos y desfase de audio como indicios mínimos de un deepfake.

La alerta local coincide con la iniciativa de Taylor Swift, quien registró patrones biométricos de su voz y rostro ante la Oficina de Patentes de Estados Unidos para acelerar demandas. Abogadas mexicanas exploran replicar la medida ante el IMPI y crear un repositorio de firmas digitales que permitan contrastar material auténtico en tiempo real.
Hasta que existan sanciones económicas claras y responsabilidad compartida de plataformas, advierten, el daño ya no será solo reputacional: un video falso puede borrar años de construcción de agenda pública y desalentar la participación de mujeres en la política nacional.
Etiquetas: deepfake, IA, extrema derecha, Manuela Castañeira, Nuevo MAS, Taylor Swift, elecciones, mujeres
