El fraude digital está atravesando una transformación radical en América Latina. México, en particular, ha sido epicentro de un incremento exponencial de estafas informáticas basadas en inteligencia artificial (IA). Según el más reciente informe de la empresa Sumsub, la creación de identidades sintéticas y el uso de tecnologías como deepfakes han crecido un 1,200% en lo que va de 2025, en comparación con el mismo periodo del año anterior .
Este artículo recopila datos, cifras, declaraciones de expertos y casos reales reportados por la prensa y organismos de ciberseguridad para ofrecer un panorama profundo del fenómeno.
¿Qué es una Identidad Sintética?
Las identidades sintéticas son combinaciones de datos reales y ficticios (nombres, documentos, selfies, voz) generados o manipulados por IA para crear una “persona” aparentemente legítima en el entorno digital. Estas identidades:
Pueden superar controles automatizados de verificación en bancos, fintechs y plataformas online. Se utilizan para abrir cuentas bancarias, pedir créditos, estafar a comercios, lavar dinero o cometer fraudes de contratación.
Evolución del fraude digital: Cifras y tendencias
Según el reporte de Sumsub y portales de seguridad como Ventas de Seguridad:
En México, el uso de IA para crear identidades falsas creció un 1,200% solo en el primer trimestre de 2025.
La modalidad más común es la apertura de cuentas en bancos digitales con documentación o selfies alterados digitalmente.
El 80% de los intentos de fraude digital detectados por bancos mexicanos en 2025 involucraron elementos sintéticos o manipulados por IA.
La suplantación de voz mediante deepfakes en vishing (fraude telefónico automatizado) también está en aumento, con víctimas que creen estar hablando con empleados reales.
Casos Reales: Testimonios y Reportes Oficiales
Banca Digital — Fraudes con Deepfakes en Préstamos
-
Banco Azteca y BBVA México reportaron que en los primeros meses de 2025 detectaron más de 3,000 intentos de apertura de cuentas usando selfies alteradas por IA, muchas de ellas imposibles de distinguir a simple vista .
-
Un gerente de seguridad digital de BBVA (citado por El Universal) detalló cómo los defraudadores emplean programas para modificar la apariencia facial y sincronizar movimientos de labios con audios robados.
Identidad Sintética en Cripto y Fintech
-
La plataforma mexicana Bitso comunicó en mayo 2025 que bloqueó decenas de cuentas abiertas con combinaciones de CURP reales y fotos sintéticas generadas por IA .
-
Las investigaciones internas mostraron que los atacantes reutilizan credenciales obtenidas en filtraciones previas y solo modifican el rostro con IA para pasar los controles automatizados.
Fraudes con Deepfake de Voz — Vishing Avanzado
-
Según la Asociación de Bancos de México, hubo reportes de usuarios que recibieron llamadas de supuestos ejecutivos, cuyas voces coincidían exactamente con grabaciones previas de representantes oficiales.
-
En varios casos, las víctimas proporcionaron códigos de seguridad y autorizaron transferencias, confiando en la familiaridad de la voz. El fraude por vishing deepfake representó el 12% de las pérdidas en fraudes bancarios reportadas en abril y mayo de 2025 .
“Empleado Fantasma” en contratación remota
-
Empresas tecnológicas mexicanas informaron de candidatos ficticios, con CVs impecables, entrevistas en video “en vivo” (en realidad deepfakes generados en tiempo real por IA) y documentación oficial clonada digitalmente .
¿Por qué México es vulnerable?
-
Bancarización digital acelerada: La pandemia impulsó la apertura remota de cuentas, a veces con validaciones insuficientes.
-
Filtraciones masivas de datos: Millones de credenciales mexicanas circulan en la dark web, sirviendo como materia prima para identidades sintéticas.
-
Infraestructura débil: Algunas fintechs y bancos pequeños carecen de herramientas para detectar manipulaciones profundas en imagen o voz.
-
Uso creciente de IA barata: Herramientas como FakeApp, Respeecher y bots de deepfake en Telegram están al alcance de cualquier ciberdelincuente.
Opinión de los expertos
-
Francisco J. González, director de ISACA México:
“La IA ha bajado la barrera técnica para el fraude digital. Las organizaciones que no refuercen sus procesos de autenticación serán el próximo objetivo.” -
Sumsub LatAm:
“Los ataques evolucionan más rápido que las defensas. Solo la combinación de inteligencia artificial defensiva, biometría avanzada y capacitación constante frenará esta ola.”
¿Cómo se defienden las empresas?
-
Implementación de biometría activa (detección de vida) en selfies y videollamadas.
-
Algoritmos anti‑deepfake, que analizan micro‑expresiones o artefactos digitales.
-
Capacitaciones frecuentes para detectar anomalías en procesos de onboarding digital y atención al cliente.
-
En algunos casos, se han establecido verificaciones cruzadas: pedir al usuario que diga frases aleatorias, o realizar videollamadas improvisadas para confirmar identidad.
Recomendaciones para usuarios y empresas
-
No compartir información personal en redes sociales o foros públicos.
-
Desconfiar de solicitudes urgentes vía llamada o mensaje, aunque la voz parezca real.
-
Verificar manualmente la identidad de cualquier persona que solicite acceso a cuentas o pagos importantes.
-
Utilizar autenticación multifactor (2FA) siempre que sea posible.
-
Reportar actividades sospechosas a bancos, fintechs y autoridades cibernéticas.
Perspectiva para Ecuador y América Latina
Aunque los datos provienen de México, las tendencias y herramientas descritas ya se observan en Ecuador, Colombia, Perú, Chile y Brasil.
La región comparte retos: falta de educación digital, crecimiento de la banca móvil y poco desarrollo de defensas anti‑IA en empresas medianas.
El fraude digital por inteligencia artificial no es ciencia ficción, es una emergencia real que afecta a empresas y personas. El reto es colectivo: requiere tecnología de defensa, regulación, colaboración interinstitucional y una ciudadanía alerta.
No hay comentarios:
Publicar un comentario