mapa
EDH

Semana Santa 2026 Guerra en Irán Copa Presidente 2026 Chuck NorrisConciertos en El Salvador Turismo en El Salvador

Banner versión desktop Banner versión móvil
Las herramientas de inteligencia artificial permiten clonar voces con pocos segundos de audio disponibles en internet.

Llamadas falsas con inteligencia artificial, así funcionan las nuevas estafas empresariales

Las llamadas telefónicas se han convertido en un terreno para el fraude con inteligencia artificial. Expertos alertan que delincuentes ya utilizan herramientas capaces de imitar la voz de ejecutivos o proveedores para engañar a colaboradores y provocar transferencias de dinero o cambios en sistemas internos.

Avatar del autor

Por Leidy Puente
Publicado el 16 de marzo de 2026

 

TU RESUMEN

Las llamadas falsas creadas con inteligencia artificial se están convirtiendo en una amenaza creciente para las empresas. Con solo unos segundos de audio disponibles en internet, delincuentes pueden clonar la voz de ejecutivos o proveedores para engañar a empleados y solicitar transferencias de dinero o cambios en sistemas internos. Expertos advierten que estos ataques son cada vez más convincentes y recomiendan reforzar la verificación de solicitudes sensibles y capacitar al personal para detectar señales de fraude.

Las estafas digitales continúan evolucionando y la inteligencia artificial se ha convertido en una herramienta clave para los ciberdelincuentes. Una de las modalidades que más preocupa actualmente a especialistas en seguridad informática es el uso de llamadas telefónicas falsas generadas con IA para engañar a colaboradores y obtener dinero o acceso a sistemas corporativos.

De acuerdo con expertos de ESET, el avance de la inteligencia artificial generativa ha facilitado la creación de audios falsos o “deepfakes” con un nivel de realismo cada vez mayor. Esto significa que los delincuentes pueden imitar la voz de una persona real y utilizarla para realizar llamadas que parecen completamente legítimas.

Este tipo de fraude puede tener consecuencias graves para las empresas, especialmente cuando los atacantes se hacen pasar por altos ejecutivos o proveedores para solicitar acciones urgentes, como transferencias bancarias, cambios en datos financieros o restablecimiento de contraseñas.

Te recomendamos: Qué es Pay y cómo funciona el sistema de pagos del BCR para emprendedores

Expertos alertan que los chatbots avanzados están siendo manipulados para crear programas maliciosos.
Expertos alertan que los chatbots avanzados están siendo manipulados para crear programas maliciosos. /Shutterstock

Uno de los factores que ha impulsado este tipo de ataques es que la tecnología necesaria para crearlos es cada vez más accesible. Hoy en día, generar un audio falso puede ser tan simple como utilizar una plataforma en línea que replica la voz de una persona a partir de una breve muestra de sonido.

Según los especialistas, en muchos casos basta con encontrar unos segundos de audio del objetivo en internet. Esto puede provenir de entrevistas, conferencias, presentaciones públicas o incluso videos publicados en redes sociales. Con esa pequeña muestra, los programas de inteligencia artificial pueden recrear la voz y utilizarla para producir nuevos mensajes de audio.

Lee además: Los cursos gratis que podés estudiar en Certifícate

Proceso de fraude

El proceso de fraude suele comenzar con una investigación previa. Los atacantes seleccionan a la persona cuya voz desean imitar, que generalmente es un ejecutivo de alto nivel dentro de una organización. Luego buscan información sobre posibles víctimas dentro de la empresa, como personal del área financiera o de tecnología.

Estafas empresariales. Foto/ Freepik

Posteriormente, realizan la llamada utilizando el audio generado con IA. En algunos casos, el mensaje está pregrabado, pero también existen herramientas más avanzadas que permiten convertir la voz del atacante en la del ejecutivo suplantado en tiempo casi real.

“Este tipo de ataque es cada vez más barato, sencillo y convincente”, advierte Macio Micucci, investigador de Seguridad Informática de ESET Latinoamérica. El experto señala que algunas herramientas incluso incorporan elementos como pausas, ruido de fondo o muletillas para hacer que la voz suene más natural.

El problema se agrava porque estas llamadas suelen apoyarse en técnicas de ingeniería social. Es decir, los delincuentes intentan presionar a la víctima para que actúe rápidamente, generando una sensación de urgencia que reduce las probabilidades de que la persona verifique la autenticidad de la solicitud.

estafa cibernetica
Los atacantes han logrado convencer a empleados de realizar transferencias de grandes cantidades de dinero. Foto/ Archivo

Casos documentados

En varios casos documentados, los atacantes han logrado convencer a empleados de realizar transferencias de grandes cantidades de dinero. Uno de los incidentes más conocidos ocurrió cuando un trabajador de una empresa fue engañado para transferir 35 millones de dólares después de recibir una llamada que aparentemente provenía de su director ejecutivo.

Ante este panorama, los especialistas señalan que las organizaciones deben reforzar sus medidas de prevención y capacitación. Uno de los pasos más importantes es entrenar a los empleados para reconocer las señales que podrían indicar que una llamada es falsa.

Entre los indicios que pueden levantar sospechas se encuentran un ritmo de conversación extraño, un tono emocional poco natural o pausas inusuales durante el discurso. También puede llamar la atención una respiración poco realista o la ausencia total de sonidos de fondo en la llamada.

Qué hacer para evitar este tipo de estafas

Además de la capacitación, las empresas pueden implementar controles adicionales para reducir el riesgo de fraude. Por ejemplo, se recomienda verificar cualquier solicitud sensible a través de otro canal de comunicación, como un mensaje directo en una plataforma corporativa o una llamada a un número previamente conocido.

Otra práctica recomendada es establecer procesos de aprobación múltiple para transferencias financieras importantes o cambios en datos bancarios de proveedores. De esta forma, se evita que una sola persona pueda autorizar una operación crítica sin una segunda verificación.

También se sugiere que ejecutivos y equipos clave establezcan contraseñas o preguntas de seguridad que puedan utilizarse para confirmar su identidad durante llamadas telefónicas.

Para los expertos, la combinación de tecnología avanzada y técnicas de manipulación psicológica hace que este tipo de fraude sea especialmente peligroso. Y debido a que producir estos audios falsos resulta relativamente barato, es probable que los ataques continúen aumentando en los próximos años.

Por ello, los especialistas coinciden en que la mejor defensa es adoptar un enfoque integral que combine tecnología, procesos internos sólidos y capacitación constante de los empleados para enfrentar las nuevas amenazas que surgen con el avance de la inteligencia artificial.

💡
¿Qué deseas ver ahora?