martes, abril 21, 2026
  • Revisa tu celular

Llamadas falsas con IA: advierten sobre una nueva amenaza para las empresas

  • banner vida interior

Centroamérica, 05 de marzo de 2026.— La inteligencia artificial generativa (GenAI) está facilitando la creación de audios y videos falsos con un nivel de realismo cada vez mayor. En este contexto, especialistas en ciberseguridad advierten que la clonación de voz mediante deepfakes se está convirtiendo en una herramienta utilizada por ciberdelincuentes para engañar a empresas y cometer fraudes.

Desde ESET, compañía líder en detección proactiva de amenazas, señalan que actualmente generar un audio falso puede ser tan simple como presionar uno o dos botones. Estas herramientas permiten replicar la voz de una persona utilizando apenas unos segundos de grabación disponibles en internet.

Los deepfakes pueden emplearse de distintas maneras: desde eludir controles de autenticación hasta infiltrarse en procesos de selección laboral mediante candidatos falsos generados digitalmente. Sin embargo, uno de los riesgos más importantes es su uso para fraudes financieros, como transferencias bancarias fraudulentas o el secuestro de cuentas de ejecutivos.

Te puede interesar: Guerra de precios en la gama media de teléfonos entre Google y Apple

Según datos del Gobierno británico, durante el último año se compartieron hasta 8 millones de clips falsos, frente a los 500 mil registrados en 2023, lo que evidencia el crecimiento acelerado de esta amenaza.

Un experimento realizado por Jake Moore, Global Security Advisor de ESET, demuestra lo sencillo que puede ser lanzar este tipo de ataques. Con solo una breve muestra de audio de la víctima —obtenida en redes sociales, entrevistas o presentaciones públicas— las herramientas de inteligencia artificial pueden generar una réplica convincente de su voz.

Cómo funciona el fraude

De acuerdo con ESET, los atacantes suelen seguir una serie de pasos para ejecutar el engaño:
Primero seleccionan a la persona que desean suplantar, que suele ser un alto ejecutivo como un CEO o CFO, o incluso un proveedor. Luego buscan en internet muestras de su voz, algo relativamente fácil en el caso de directivos que participan en eventos públicos o entrevistas.

Posteriormente investigan a la persona que será el objetivo del engaño, normalmente dentro de áreas como finanzas o soporte técnico, utilizando información disponible en redes profesionales como LinkedIn.
Finalmente, realizan la llamada utilizando audio deepfake para hacerse pasar por el ejecutivo o proveedor y solicitar acciones urgentes, como transferencias de dinero, restablecimiento de contraseñas o aprobación de pagos pendientes.

“Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas incluso pueden agregar ruido de fondo, pausas y tartamudeos para hacer que la voz falsa resulte más creíble”, explica Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

Además, los ciberdelincuentes suelen combinar estas técnicas con ingeniería social, presionando a las víctimas para que actúen con urgencia. Al tratarse de supuestas órdenes de un alto ejecutivo, muchas personas no cuestionan la solicitud.

Uno de los casos más conocidos ocurrió en 2020, cuando un empleado de una empresa en Emiratos Árabes Unidos fue engañado mediante una llamada que simulaba provenir de su director. Como resultado, realizó una transferencia de 35 millones de dólares vinculada a una supuesta operación de fusión y adquisición.

Señales para detectar una llamada falsa

Aunque las herramientas de IA son cada vez más sofisticadas, aún existen señales que pueden ayudar a detectar una voz sintética, según ESET:

• Ritmo de habla antinatural
• Tono emocional demasiado plano
• Falta de pausas naturales para respirar
• Sonido robótico en algunas frases
• Ausencia o uniformidad inusual del ruido de fondo

Los especialistas recomiendan que las organizaciones refuercen la formación en ciberseguridad para sus empleados, incorporando simulaciones de deepfakes y ejercicios de red team que permitan poner a prueba los protocolos internos.

Entre las medidas preventivas destacan:

• Verificar solicitudes sensibles por un canal alternativo de comunicación.
• Exigir doble aprobación para transferencias financieras importantes.
• Utilizar contraseñas o preguntas de verificación previamente acordadas para confirmar la identidad en llamadas telefónicas.

“Las falsificaciones de voz son cada vez más fáciles de producir y pueden generar grandes beneficios para los estafadores. Por eso, la mejor estrategia para reducir el riesgo es combinar personas capacitadas, procesos claros y tecnología adecuada”, concluye Micucci.

En el foco

  • Revisa tu celular antes de comprar

  • Intrant - transito limpio

  • banner punto vida interior y policia

Explora más

La NASA adelanta el despegue de telescopio Roman, que mapeará a gran velocidad el universo

Miami.- La NASA adelantó para principios de septiembre el lanzamiento del telescopio Roman, una máquina que mapeará el universo a una velocidad sin precedentes, informó este martes en una rueda de prensa el administrador de la agencia federal, Jared Isaacman. «Nuestro equipo dedicó más de una década de sus vidas y millones de horas a […]

Twitch llega al ITLA con workshop exclusivo para impulsar el talento digital joven

Santo Domingo. – La plataforma global Twitch, líder mundial en transmisiones en vivo y comunidad digital de creadores, realizó un workshop exclusivo en el Instituto Tecnológico de las Américas (ITLA), donde impactó a más de 100 estudiantes destacados, como parte de las actividades del Segundo Festival Latinoamericano de Creadores de Contenido. El encuentro fue conducido […]

Amazon invertirá al menos 5.000 millones más en Anthropic mediante un acuerdo de IA

Nueva York.- Amazon anunció este lunes que invertirá al menos 5.000 millones de dólares más en Anthropic mediante un acuerdo de inteligencia artificial (IA) por el que la segunda empresa se compromete a gastar 100.000 millones en Amazon Web Services en la próxima década. En un comunicado, Amazon explicó que ya ha invertido 8.000 millones […]

UFHEC presenta 21 proyectos de investigación enfocados en salud, innovación y desarrollo sostenible en RD

Redacción.- La Universidad Federico Henríquez y Carvajal (UFHEC) impulsa un total de 21 propuestas de investigación en el marco del Fondo Nacional de Innovación y Desarrollo Científico y Tecnológico (FONDOCyT) 2026, en campos vinculados a salud, sostenibilidad ambiental, producción agroalimentaria, innovación tecnológica y políticas públicas, alineados con desafíos prioritarios de la República Dominicana. El rector […]

Descubren en Noruega partes de un barco sepultado que antecede a los vikingos

El hallazgo en Leka invita a pensar que en el norte de Europa existían rituales funerarios sofisticados mucho antes de lo que se pensaba. Cómo se organizaban y vivían esas sociedades

Spotify gana demanda por USD 322 millones contra sitio pirata

Spotify ha obtenido una contundente victoria judicial contra Anna’s Archive, un sitio de piratería musical que fue condenado a pagar 322 millones de dólares tras extraer y publicar gran parte del catálogo de la plataforma de streaming. El fallo, emitido por un tribunal federal de Nueva York, también beneficia a tres grandes discográficas y marca un capítulo clave en la […]
  • Revisa tu celular antes de comprar