La inteligencia artificial ha convertido la suplantación de identidad en un negocio de bajo costo y alta credibilidad. Según ESET, la combinación de ingeniería social con generación automática de rostros y voces hace que los ataques sean casi indetectables para víctimas y para sistemas biométricos.
La clonación de voz es la arma más popular. Con apenas unos segundos de audio publicado en redes sociales, los delincuentes generan un modelo que imita tono, acento y entonación. El fraude al CEO —donde un directivo aparenta ordenar transferencias urgentes— ya se replica en pymes mexicanas con pérdidas que empiezan en seis cifras.
La voz sintética se combina con mensajería instantánea o llamadas en horarios de estrés: cierres de mes, entregas de nómina o días previos a feriados. Al parecer real, la víctima autoriza movimientos bancarios o entrega contraseñas de acceso remoto sin cuestionar.
El segundo frente es el reconocimiento facial. Jake Moore, asesor global de ciberseguridad de ESET, demostró que un rostro generado por IA puede abrir cuentas bancarias reales. El experimento incluyó documentos falsos pero foto creíble, aceptada por la app de una entidad europea; el mismo método ya se ensaya contra plataformas locales de banca digital.

En otra prueba, Moore eludió cámaras del metro de Londres al superponer su rostro con el de Tom Cruise mediante software de intercambio en tiempo real. La burla duró varios minutos y no disparó alertas, lo que evidencia la fragilidad de los sistemas de vigilancia que el gobierno capitalino planea expander este año.
Josep Albors, responsable de Investigación y Concienciación de ESET España, advierte que el problema no es la existencia de deepfakes, sino su democratización. Herramientas antes reservadas a laboriosos estudios de postproducción hoy se descargan en minutos y funcionan en laptops convencionales.
La barrera técnica desaparece y los costos caen: por menos de mil pesos mensuales cualquier persona accede a servicios de generación de voz y rostro que antes costaban decenas de miles de dólares. El efecto es un aumento exponencial de intentos de fraude que las autoridades mexicanas aún no miden ni reportan.
Los bancos locales dependen cada vez más de la biometría facial para “tokenizar” la identidad y reducir trámites en sucursal. Sin embargo, la entidad financiera no está obligada a informar al cliente cuando su rostro o voz se replica de forma fraudulenta, lo que deja a los usuarios sin aviso ni reparación clara.
Etiquetas: deepfakes, fraude bancario, biometría facial, clonación de voz, ciudadanía digital, Tecnología · Deepfakes y fraudes con IA
