El programa VerificaRTVE detectĂł que un fragmento de una pelĂcula estrenada en abril de 2023 se difunde en redes sociales como si fuera una grabaciĂłn real de presuntas torturas cometidas por Israel contra detenidos en Oriente Medio. La secuencia pertenece a un largometraje de ficciĂłn y no tiene relaciĂłn con el conflicto bĂ©lico actual.
La desinformaciĂłn audiovisual no es el Ăşnico riesgo. Borja DĂaz-Merry señala que los creadores de ciberestafas aprovechan la campaña de la declaraciĂłn de la renta 2025 para enviar mensajes hiperrealistas generados con inteligencia artificial que simulan ser de la autoridad fiscal.
Los correos fraudulentos incluyen logotipos oficiales, lenguaje administrativo y enlaces que llevan a sitios clonados. AllĂ se solicitan claves bancarias, nĂşmeros de cuenta o fotografĂas del DNI, datos que luego se usan para cobros no autorizados o venta a terceros.
Especialistas consultados por VerificaRTVE explican que los deepfakes reducen los costos de las estafas y aumentan su credibilidad. Un solo estafador puede generar miles de mensajes personalizados sin necesidad de call centers o operadores.

Ante la dificultad de distinguir un mensaje real del falso, recomiendan verificar siempre el remitente, ignorar enlaces directos y acceder Ăşnicamente por portales oficiales cuya direcciĂłn termine en gob.mx.
El reportaje también recuerda que los impuestos incluidos en el precio de las gasolinas representan una parte significativa del costo final. Esta carga fiscal, argumentan, puede agudizar el impacto económico si un contribuyente cae en una estafa y ve comprometida su cuenta bancaria.
VerificaRTVE recibe consultas ciudadanas mediante WhatsApp al 659 800 555 y por correo a [email protected]. El equipo insiste en la necesidad de pausar antes de reenviar con
Etiquetas: deepfake, estafa, renta2025, desinformaciĂłn, IA, TecnologĂa · Deepfakes y fraudes con IA
