viernes, mayo 1, 2026
  • Intrant 970x90

Llamadas falsas con IA: advierten sobre una nueva amenaza para las empresas

  • banner vida interior

Centroamérica, 05 de marzo de 2026.— La inteligencia artificial generativa (GenAI) está facilitando la creación de audios y videos falsos con un nivel de realismo cada vez mayor. En este contexto, especialistas en ciberseguridad advierten que la clonación de voz mediante deepfakes se está convirtiendo en una herramienta utilizada por ciberdelincuentes para engañar a empresas y cometer fraudes.

Desde ESET, compañía líder en detección proactiva de amenazas, señalan que actualmente generar un audio falso puede ser tan simple como presionar uno o dos botones. Estas herramientas permiten replicar la voz de una persona utilizando apenas unos segundos de grabación disponibles en internet.

Los deepfakes pueden emplearse de distintas maneras: desde eludir controles de autenticación hasta infiltrarse en procesos de selección laboral mediante candidatos falsos generados digitalmente. Sin embargo, uno de los riesgos más importantes es su uso para fraudes financieros, como transferencias bancarias fraudulentas o el secuestro de cuentas de ejecutivos.

Te puede interesar: Guerra de precios en la gama media de teléfonos entre Google y Apple

Según datos del Gobierno británico, durante el último año se compartieron hasta 8 millones de clips falsos, frente a los 500 mil registrados en 2023, lo que evidencia el crecimiento acelerado de esta amenaza.

Un experimento realizado por Jake Moore, Global Security Advisor de ESET, demuestra lo sencillo que puede ser lanzar este tipo de ataques. Con solo una breve muestra de audio de la víctima —obtenida en redes sociales, entrevistas o presentaciones públicas— las herramientas de inteligencia artificial pueden generar una réplica convincente de su voz.

Cómo funciona el fraude

De acuerdo con ESET, los atacantes suelen seguir una serie de pasos para ejecutar el engaño:
Primero seleccionan a la persona que desean suplantar, que suele ser un alto ejecutivo como un CEO o CFO, o incluso un proveedor. Luego buscan en internet muestras de su voz, algo relativamente fácil en el caso de directivos que participan en eventos públicos o entrevistas.

Posteriormente investigan a la persona que será el objetivo del engaño, normalmente dentro de áreas como finanzas o soporte técnico, utilizando información disponible en redes profesionales como LinkedIn.
Finalmente, realizan la llamada utilizando audio deepfake para hacerse pasar por el ejecutivo o proveedor y solicitar acciones urgentes, como transferencias de dinero, restablecimiento de contraseñas o aprobación de pagos pendientes.

“Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas incluso pueden agregar ruido de fondo, pausas y tartamudeos para hacer que la voz falsa resulte más creíble”, explica Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

Además, los ciberdelincuentes suelen combinar estas técnicas con ingeniería social, presionando a las víctimas para que actúen con urgencia. Al tratarse de supuestas órdenes de un alto ejecutivo, muchas personas no cuestionan la solicitud.

Uno de los casos más conocidos ocurrió en 2020, cuando un empleado de una empresa en Emiratos Árabes Unidos fue engañado mediante una llamada que simulaba provenir de su director. Como resultado, realizó una transferencia de 35 millones de dólares vinculada a una supuesta operación de fusión y adquisición.

Señales para detectar una llamada falsa

Aunque las herramientas de IA son cada vez más sofisticadas, aún existen señales que pueden ayudar a detectar una voz sintética, según ESET:

• Ritmo de habla antinatural
• Tono emocional demasiado plano
• Falta de pausas naturales para respirar
• Sonido robótico en algunas frases
• Ausencia o uniformidad inusual del ruido de fondo

Los especialistas recomiendan que las organizaciones refuercen la formación en ciberseguridad para sus empleados, incorporando simulaciones de deepfakes y ejercicios de red team que permitan poner a prueba los protocolos internos.

Entre las medidas preventivas destacan:

• Verificar solicitudes sensibles por un canal alternativo de comunicación.
• Exigir doble aprobación para transferencias financieras importantes.
• Utilizar contraseñas o preguntas de verificación previamente acordadas para confirmar la identidad en llamadas telefónicas.

“Las falsificaciones de voz son cada vez más fáciles de producir y pueden generar grandes beneficios para los estafadores. Por eso, la mejor estrategia para reducir el riesgo es combinar personas capacitadas, procesos claros y tecnología adecuada”, concluye Micucci.

En el foco

  • banner punto vida interior y policia

  • APlicación banner 300x250

  • banner punto vida interior y policia

Explora más

Muñecos con IA: la nueva compañía de los adultos mayores en Corea del Sur

Seúl.- Corea del Sur está recurriendo a muñecos con inteligencia artificial (IA) para acompañar a personas mayores que viven solas, capaces de recordarles rutinas diarias y detectar situaciones de riesgo, y que algunos consideran incluso "amigos" en un país aquejado de altas tasas de depresión y envejecimiento de la población. "Cuando hablo (con la muñeca), […]

Elon Musk, el hombre más rico del mundo, dice que fue «un tonto» al financiar a OpenAI

Los Ángeles.- Elon Musk, el hombre más rico del mundo, dijo este miércoles en el juicio contra OpenAI que fue “un tonto” al financiar la fundación de la tecnológica, a la que demandó por cambiar su misión inicial sin fines de lucro. «Fui un tonto que les proporcionó financiación gratuita para crear una ‘startup’… Les […]

Un robot que ‘perrea’ y 3D sin gafas: Nueva Jersey exhibe lo último en tecnología

Maplewood.- Un robot personalizado que sabe perrear, monitores de 3D sin gafas o un marco de fotos con inteligencia artificial (IA) en el que las personas retratadas saludan cuando pasa alguien por delante, son algunas de las innovaciones tecnológicas que se presentaron este miércoles en el New Jersey Spring Tech Showcase, en Maplewood (Nueva Jersey). […]

Bruselas acusa a Meta de no impedir el acceso a Facebook e Instagram a menores de 13 años

Bruselas .- La Comisión Europea acusó este miércoles a la tecnológica estadounidense Meta de incumplir la ley de servicios digitales (DSA) de la Unión Europea por no impedir que los menores de 13 años accedan a Facebook e Instagram. Por eso, obligó a ambas redes sociales a «reforzar sus medidas para prevenir, detectar y eliminar (las […]

Presentan nuevas tecnologías para transformar el turismo médico desde la RD

Santo Domingo. — La empresa estadounidense heva, cofundada por el dominicano Héctor Terrero, presentó en Santo Domingo dos nuevas soluciones tecnológicas CareGraph y heva Wallet con las que busca transformar el turismo médico global, apostando por mayor eficiencia, trazabilidad y seguridad en la atención a pacientes internacionales. La compañía se posiciona como una plataforma integral […]

Llega a Florida la etapa central de cohete SLS de la misión Artemis III prevista para 2027

Miami.- La etapa central del cohete Space Launch System (SLS) llegó este martes a Florida como parte de los preparativos de Artemis III, la misión de la NASA prevista para 2027 y concebida para probar maniobras en órbita terrestre y sentar las bases del alunizaje tripulado que la agencia proyecta para 2028. Tras el éxito […]
  • Revisa tu celular antes de comprar