domingo, 29 de junio de 2025

El Avance de la Inteligencia Artificial: Progreso Imparable y Peligros Sin Regulación

    En la última década, la Inteligencia Artificial (IA) ha dejado de ser solo un concepto de ciencia ficción para convertirse en una parte fundamental de nuestra vida diaria. Desde asistentes virtuales hasta diagnósticos médicos, pasando por sistemas de seguridad, análisis financieros y redes sociales, la IA se ha integrado en casi todos los sectores. Sin embargo, este avance trae consigo desafíos que, si no se abordan con leyes claras y una regulación efectiva, pueden convertirse en riesgos graves para la sociedad y para cada persona.

La velocidad vertiginosa del desarrollo en IA

Nunca antes la humanidad había visto una tecnología avanzar tan rápido y con un impacto tan global. Los motivos son claros:

  • Inversiones millonarias de empresas y gobiernos impulsan la investigación.

  • Disponibilidad masiva de datos, gracias a internet y el auge de dispositivos conectados, permiten entrenar modelos cada vez más precisos y potentes.

  • Código abierto y acceso global: Hoy, muchos modelos avanzados son de libre acceso, lo que democratiza la innovación, pero también los riesgos.

Esta velocidad, si bien impulsa la economía y la ciencia, también deja atrás a legisladores, instituciones y ciudadanos que apenas comienzan a comprender el alcance real de la IA.

Los riesgos de una IA sin regulación 

Si la IA se desarrolla sin límites ni normas claras, los riesgos pueden superar los beneficios. Estos son algunos de los peligros más relevantes:

Deepfakes y manipulación de la realidad: La IA permite crear imágenes, audios y videos falsos casi imposibles de distinguir de los reales. Esto puede usarse para manipular la opinión pública, extorsionar, dañar reputaciones y hasta influir en procesos electorales.

Automatización y desempleo: Los algoritmos avanzados pueden reemplazar a millones de trabajadores en tareas repetitivas, administrativas, logísticas e incluso creativas. Sin políticas de transición laboral y capacitación, la desigualdad social podría aumentar drásticamente.

Herramientas de ciberataque inteligentes: Las IA permiten automatizar ataques cibernéticos, phishing, fraudes y robos de información. Un solo error de configuración o una vulnerabilidad puede ser explotada a gran escala, con daños económicos y sociales enormes.

Desinformación masiva: Bots y generadores automáticos de contenido, basados en IA, pueden inundar las redes sociales de noticias falsas, teorías de conspiración y campañas de manipulación, afectando la democracia y la estabilidad social.

El reto de saber qué es real y qué no

A medida que la IA perfecciona su capacidad de crear contenido, el límite entre lo real y lo falso se vuelve difuso. Un usuario promedio puede ser engañado fácilmente por una noticia falsa, una imagen alterada o un video deepfake. Esto no solo pone en riesgo la confianza en los medios y en la información, sino que puede tener consecuencias graves en temas como elecciones, justicia y reputación personal.

El peligro invisible: filtración y recopilación de datos por IA

Uno de los riesgos menos visibles, pero más peligrosos, es la capacidad de la IA para recopilar, analizar y almacenar grandes cantidades de datos personales. Estos datos pueden incluir desde hábitos de navegación hasta información sensible como salud, finanzas, ubicación, preferencias políticas y relaciones personales.

¿Qué ocurre si una IA es vulnerada?

  • Filtración masiva de datos: Si una IA que gestiona información personal es hackeada, millones de datos privados pueden ser filtrados y vendidos en la dark web.

  • Riesgo de extorsión y suplantación: Datos filtrados pueden ser utilizados para extorsionar personas, suplantar identidades o realizar fraudes bancarios.

  • Pérdida de privacidad total: La IA puede cruzar información de diferentes fuentes (redes sociales, correos, cámaras de vigilancia, historiales médicos) y crear perfiles completos de cada individuo.

  • Riesgos para empresas y gobiernos: Una IA vulnerada puede exponer secretos empresariales, estrategias de negocio, datos de clientes o incluso información sensible del Estado.

Ejemplo reciente: En 2023, se reportaron casos de IA empresariales vulneradas donde se filtraron chats privados, datos bancarios y registros médicos de miles de usuarios, demostrando que no solo es un peligro hipotético, sino una amenaza real y actual.

¿Por qué urge una regulación internacional de la IA?

La falta de leyes globales deja un vacío peligroso, donde grandes corporaciones y gobiernos pueden desarrollar y usar IA sin control, supervisión ni transparencia.

  • Protección de los derechos humanos: Es necesario proteger la privacidad, evitar la discriminación algorítmica y garantizar que las IA no sean utilizadas para fines maliciosos.

  • Transparencia y rendición de cuentas: Las empresas y desarrolladores deben ser responsables de los daños causados por sus sistemas de IA.

  • Estándares de seguridad: La regulación debe exigir medidas mínimas de seguridad para proteger los datos gestionados por la IA y evitar filtraciones masivas.

  • Colaboración internacional: Al tratarse de una tecnología global, solo una cooperación entre países podrá establecer reglas efectivas y evitar un “salvaje oeste” tecnológico.

Conclusión: La Inteligencia Artificial tiene el potencial de transformar el mundo para bien, pero también de causar daños irreparables si se usa sin control. La ausencia de regulación deja abierta la puerta a riesgos como la desinformación, la manipulación, la pérdida de empleos y, sobre todo, la filtración masiva de datos personales. El futuro de la humanidad depende de encontrar un equilibrio entre innovación y protección, transparencia y responsabilidad.

Recomendaciones y acciones urgentes

  • Exigir leyes y marcos regulatorios globales para la IA.

  • Fomentar la alfabetización digital: Educar a la población para identificar noticias falsas, deepfakes y reconocer los riesgos de la IA.

  • Solicitar transparencia a las empresas tecnológicas sobre el uso y almacenamiento de datos.

  • Implementar sistemas de ciberseguridad robustos en todas las plataformas que usen IA.

  • Promover el debate público sobre los límites éticos de la IA y el manejo de información personal.

sábado, 28 de junio de 2025

Ecuador marca un hito en Latinoamérica: adopta el primer Código de Ética de Inteligencia Artificial en el sector público

 


    Ecuador da un paso histórico en la región al convertirse en el primer país de Latinoamérica donde una institución pública aprueba oficialmente un Código de Ética para el uso de Inteligencia Artificial (IA). La Superintendencia de Competencia Económica (SCE) presentó en junio su marco ético y una guía práctica para la implementación responsable de herramientas de IA en la gestión pública, en una ceremonia que contó con el respaldo y reconocimiento de la UNESCO.

¿Por qué es relevante este avance?

Mientras el uso de la IA se expande rápidamente en gobiernos y empresas, surgen preocupaciones sobre los riesgos para la privacidad, la equidad y los derechos de las personas. Frente a esto, el nuevo Código de Ética ecuatoriano establece reglas claras para que la inteligencia artificial se utilice siempre con transparencia, supervisión humana y respeto a los valores democráticos.

La SCE resalta que la IA debe ser una aliada para mejorar los servicios públicos, pero nunca reemplazar el juicio humano ni afectar la dignidad o los derechos de los ciudadanos. Por eso, el código exige principios como la transparencia, la no discriminación, la privacidad desde el diseño y la mejora continua de los sistemas. De esta manera, Ecuador busca que la tecnología esté siempre al servicio del interés público.

Un ejemplo para la región

Esta iniciativa convierte a Ecuador en pionero en la región y ofrece una hoja de ruta para otros países que buscan implementar tecnologías emergentes de forma responsable. La UNESCO ha destacado el esfuerzo ecuatoriano como un modelo para la adopción ética de la IA, alineado con sus recomendaciones internacionales.

La apuesta de la SCE demuestra que el desarrollo digital puede ir de la mano de la ética y la protección de derechos, colocando a Ecuador en el mapa como referente regional en la gobernanza tecnológica.

Fuente: Unesco

Alerta de Microsoft: Los nuevos métodos de phishing logran evadir incluso la autenticación multifactor

 


    El phishing sigue evolucionando y, a pesar de las medidas de seguridad más modernas, los cibercriminales encuentran formas cada vez más sofisticadas de engañar a empresas y usuarios.

Microsoft, a través de sus equipos de inteligencia de amenazas, ha detectado un incremento en ataques de phishing que apuntan especialmente a organizaciones que usan servicios en la nube como Office 365, aprovechando tanto la ingeniería social como vulnerabilidades humanas y técnicas avanzadas para obtener acceso a cuentas empresariales. Aunque muchas compañías ya han implementado soluciones como la autenticación multifactor (MFA), los atacantes han desarrollado tácticas para saltarse incluso estos mecanismos.

¿Cómo están operando los cibercriminales?

El método más avanzado detectado es el llamado Adversario en el Medio (AiTM).
En este ataque, los delincuentes usan herramientas como Evilginx para crear páginas web falsas que copian perfectamente el aspecto de los servicios legítimos (por ejemplo, la página de inicio de sesión de Microsoft o LinkedIn). El usuario, convencido de estar en la página real, ingresa sus credenciales y su código de MFA. El servidor controlado por el atacante captura ambos datos en tiempo real, permitiendo a los ciberdelincuentes acceder inmediatamente a la cuenta, incluso si la autenticación en dos pasos está activada.

Este método está siendo ofrecido como "Phishing como Servicio" en la dark web, lo que significa que no se requiere ser un hacker experto para lanzar campañas de este tipo. Solo se necesita contratar el servicio.

Otra técnica emergente es el phishing de códigos de dispositivo. Aquí, los atacantes envían mensajes aparentando ser de confianza (por ejemplo, avisos de impuestos, servicio civil, compras en línea) e incluyen un enlace a una supuesta página de autenticación. Al ingresar un código, el usuario en realidad está autorizando al atacante a tomar control de la cuenta en nombre de la víctima.

Consentimiento de aplicaciones maliciosas (OAuth)

En este caso, los atacantes envían un correo que solicita al usuario conceder permisos a una aplicación aparentemente legítima. Si el usuario acepta, el atacante obtiene un token que le permite acceder de manera persistente a la cuenta, incluso sin conocer usuario y contraseña.

Phishing para registrar dispositivos maliciosos

Recientemente se han observado campañas en las que, a través de correos o invitaciones falsas a reuniones, el atacante logra registrar un dispositivo propio dentro del entorno de la organización, lo que puede facilitar accesos no autorizados de largo plazo.

Ingeniería social personalizada y uso de IA

Además de la tecnología, los ciberdelincuentes siguen perfeccionando la ingeniería social. Esto significa que crean correos muy personalizados, usando nombres reales de compañeros de trabajo o incluso figuras públicas, para aumentar las posibilidades de engañar a la víctima.
El uso de inteligencia artificial permite redactar mensajes impecables, libres de errores y difíciles de distinguir de una comunicación real, lo que hace mucho más difícil detectar un intento de fraude.

Códigos QR y redes sociales

El phishing no se limita ya al correo electrónico. Hoy, se están usando códigos QR en restaurantes, estacionamientos y documentos para dirigir a las víctimas a páginas falsas. También aprovechan aplicaciones de mensajería y redes sociales para difundir estos enlaces.

¿Por qué estas técnicas son peligrosas?

  • Eluden medidas tradicionales: Incluso con MFA y filtros de correo, estos ataques pueden tener éxito porque explotan el comportamiento humano.

  • Difíciles de detectar: Las páginas falsas y los mensajes están tan bien hechos que muchas veces ni el usuario ni los sistemas automáticos los reconocen como amenazas.

  • Impacto: Si un atacante obtiene acceso, puede robar información sensible, suplantar identidades, moverse lateralmente dentro de la organización e incluso comprometer a socios o clientes.

 Recomendaciones de Microsoft y expertos

  1. Refuerza la MFA con políticas adicionales
    No basta solo con tener autenticación en dos pasos. Es clave aplicar políticas de acceso condicional que analicen factores como la ubicación, el dispositivo y el riesgo de la sesión.

  2. Limita el consentimiento de aplicaciones
    Configura para que solo aplicaciones verificadas puedan ser autorizadas por los empleados.

  3. Capacita a tu personal constantemente
    La formación sigue siendo esencial. Realiza simulacros de phishing y explica los riesgos de compartir información, hacer clic en enlaces o escanear códigos QR no verificados.

  4. Actualiza y revisa la configuración de seguridad
    No solo en el correo, sino en todas las plataformas que maneje la empresa: aplicaciones, Teams, redes sociales, sistemas de autenticación y dispositivos.

  5. Utiliza herramientas de protección avanzadas
    Implementa soluciones como Microsoft Defender para Office 365, que detectan ataques en tiempo real y bloquean accesos sospechosos.

  6. Bloquea los flujos de códigos de dispositivo si no son necesarios
    Si se usan, deben estar protegidos por políticas estrictas.

  7. Cuidado con los dispositivos que se conectan a la organización
    Requiere autenticación extra para registrar nuevos equipos y revisa cualquier actividad inusual.

Conclusión

El phishing sigue siendo una de las amenazas más grandes para cualquier organización, y los atacantes están usando nuevas técnicas para burlar las defensas tradicionales, incluso la autenticación multifactor. La clave está en combinar tecnología avanzada con la capacitación constante de los usuarios y una revisión permanente de las políticas de seguridad.

Mantente alerta, capacita a tu equipo y revisa tus sistemas. La mejor defensa sigue siendo una combinación de tecnología y sentido común.

Fuente: Microsoft

viernes, 27 de junio de 2025

México: Fraude Digital Impulsado por Inteligencia Artificial se Dispara un 1200%

     


    El fraude digital está atravesando una transformación radical en América Latina. México, en particular, ha sido epicentro de un incremento exponencial de estafas informáticas basadas en inteligencia artificial (IA). Según el más reciente informe de la empresa Sumsub, la creación de identidades sintéticas y el uso de tecnologías como deepfakes han crecido un 1,200% en lo que va de 2025, en comparación con el mismo periodo del año anterior .

Este artículo recopila datos, cifras, declaraciones de expertos y casos reales reportados por la prensa y organismos de ciberseguridad para ofrecer un panorama profundo del fenómeno.

¿Qué es una Identidad Sintética?

Las identidades sintéticas son combinaciones de datos reales y ficticios (nombres, documentos, selfies, voz) generados o manipulados por IA para crear una “persona” aparentemente legítima en el entorno digital. Estas identidades:

Pueden superar controles automatizados de verificación en bancos, fintechs y plataformas online. Se utilizan para abrir cuentas bancarias, pedir créditos, estafar a comercios, lavar dinero o cometer fraudes de contratación.

Evolución del fraude digital: Cifras y tendencias

Según el reporte de Sumsub y portales de seguridad como Ventas de Seguridad:

En México, el uso de IA para crear identidades falsas creció un 1,200% solo en el primer trimestre de 2025.

La modalidad más común es la apertura de cuentas en bancos digitales con documentación o selfies alterados digitalmente.

El 80% de los intentos de fraude digital detectados por bancos mexicanos en 2025 involucraron elementos sintéticos o manipulados por IA.

La suplantación de voz mediante deepfakes en vishing (fraude telefónico automatizado) también está en aumento, con víctimas que creen estar hablando con empleados reales.

Casos Reales: Testimonios y Reportes Oficiales

Banca Digital — Fraudes con Deepfakes en Préstamos

  • Banco Azteca y BBVA México reportaron que en los primeros meses de 2025 detectaron más de 3,000 intentos de apertura de cuentas usando selfies alteradas por IA, muchas de ellas imposibles de distinguir a simple vista .

  • Un gerente de seguridad digital de BBVA (citado por El Universal) detalló cómo los defraudadores emplean programas para modificar la apariencia facial y sincronizar movimientos de labios con audios robados.

Identidad Sintética en Cripto y Fintech

  • La plataforma mexicana Bitso comunicó en mayo 2025 que bloqueó decenas de cuentas abiertas con combinaciones de CURP reales y fotos sintéticas generadas por IA .

  • Las investigaciones internas mostraron que los atacantes reutilizan credenciales obtenidas en filtraciones previas y solo modifican el rostro con IA para pasar los controles automatizados.

Fraudes con Deepfake de Voz — Vishing Avanzado

  • Según la Asociación de Bancos de México, hubo reportes de usuarios que recibieron llamadas de supuestos ejecutivos, cuyas voces coincidían exactamente con grabaciones previas de representantes oficiales.

  • En varios casos, las víctimas proporcionaron códigos de seguridad y autorizaron transferencias, confiando en la familiaridad de la voz. El fraude por vishing deepfake representó el 12% de las pérdidas en fraudes bancarios reportadas en abril y mayo de 2025 .

“Empleado Fantasma” en contratación remota

  • Empresas tecnológicas mexicanas informaron de candidatos ficticios, con CVs impecables, entrevistas en video “en vivo” (en realidad deepfakes generados en tiempo real por IA) y documentación oficial clonada digitalmente .

¿Por qué México es vulnerable?

  • Bancarización digital acelerada: La pandemia impulsó la apertura remota de cuentas, a veces con validaciones insuficientes.

  • Filtraciones masivas de datos: Millones de credenciales mexicanas circulan en la dark web, sirviendo como materia prima para identidades sintéticas.

  • Infraestructura débil: Algunas fintechs y bancos pequeños carecen de herramientas para detectar manipulaciones profundas en imagen o voz.

  • Uso creciente de IA barata: Herramientas como FakeApp, Respeecher y bots de deepfake en Telegram están al alcance de cualquier ciberdelincuente.

Opinión de los expertos

  • Francisco J. González, director de ISACA México:
    “La IA ha bajado la barrera técnica para el fraude digital. Las organizaciones que no refuercen sus procesos de autenticación serán el próximo objetivo.”

  • Sumsub LatAm:
    “Los ataques evolucionan más rápido que las defensas. Solo la combinación de inteligencia artificial defensiva, biometría avanzada y capacitación constante frenará esta ola.”

¿Cómo se defienden las empresas?

  • Implementación de biometría activa (detección de vida) en selfies y videollamadas.

  • Algoritmos anti‑deepfake, que analizan micro‑expresiones o artefactos digitales.

  • Capacitaciones frecuentes para detectar anomalías en procesos de onboarding digital y atención al cliente.

  • En algunos casos, se han establecido verificaciones cruzadas: pedir al usuario que diga frases aleatorias, o realizar videollamadas improvisadas para confirmar identidad.

Recomendaciones para usuarios y empresas

  1. No compartir información personal en redes sociales o foros públicos.

  2. Desconfiar de solicitudes urgentes vía llamada o mensaje, aunque la voz parezca real.

  3. Verificar manualmente la identidad de cualquier persona que solicite acceso a cuentas o pagos importantes.

  4. Utilizar autenticación multifactor (2FA) siempre que sea posible.

  5. Reportar actividades sospechosas a bancos, fintechs y autoridades cibernéticas.

Perspectiva para Ecuador y América Latina

Aunque los datos provienen de México, las tendencias y herramientas descritas ya se observan en Ecuador, Colombia, Perú, Chile y Brasil.
La región comparte retos: falta de educación digital, crecimiento de la banca móvil y poco desarrollo de defensas anti‑IA en empresas medianas.

    El fraude digital por inteligencia artificial no es ciencia ficción, es una emergencia real que afecta a empresas y personas. El reto es colectivo: requiere tecnología de defensa, regulación, colaboración interinstitucional y una ciudadanía alerta.