¿Cómo operan las estafas amorosas con inteligencia artificial?
La inteligencia artificial potencia fraudes amorosos en apps y redes. Expertos alertan sobre sextorsión y engaños financieros cada vez más personalizados.
Por
Karla Rodas
Publicado el 23 de febrero de 2026
Las estafas románticas impulsadas por inteligencia artificial están en aumento, según el informe Gen Threat Report Q3-2025 de Gen Digital, difundido por EFE y retomado por El Heraldo. Durante el tercer trimestre de 2025, las estafas en apps de citas crecieron 36% y la sextorsión 32%. Los ciberdelincuentes utilizan IA para crear perfiles falsos con deepfake, clonar voces, manipular imágenes íntimas y construir relaciones digitales creíbles que terminan en chantaje o fraude financiero. Expertos advierten que la automatización permite engaños más personalizados y persuasivos. Recomiendan desconfiar de solicitudes de dinero, proteger datos personales y reforzar la seguridad en línea.
Las estafas románticas con inteligencia artificial, la sextorsión digital y los fraudes en aplicaciones de citas están creciendo a nivel global, según el informe Gen Threat Report Q3-2025 de la empresa Gen Digital. La investigación, difundida por EFE y retomada por El Heraldo, advierte que la IA está permitiendo a los ciberdelincuentes automatizar la persuasión, personalizar engaños y robar datos bancarios y credenciales con una precisión inédita.
La inteligencia artificial no solo está transformando el empleo o la creatividad. También impulsa una nueva ola de ciberdelincuencia dirigida que aprovecha la confianza emocional de quienes buscan pareja en línea. El resultado puede ser devastador: ilusiones que terminan en pérdidas económicas y exposición de información íntima.
De acuerdo con el equipo Gen Threat Labs (GTL), especializado en detectar amenazas digitales, durante el tercer trimestre de 2025 las estafas en aplicaciones de citas aumentaron 36%, mientras que la sextorsión creció 32%. Estas cifras reflejan un fenómeno que combina manipulación psicológica y herramientas tecnológicas avanzadas.
“La IA ha cambiado la escala y la velocidad de los ciberataques”, comenta Siggi Stefnisson, director de Tecnología (CTO) de ciberseguridad de Gen Digital. Añade que esta tecnología “está siendo aprovechada para producir estafas en masa, personalizarlas y atacar a las personas con una precisión que no se había visto antes”.
Te puede interesar: Acusan al expríncipe Andrés por uso indebido de fondos públicos
Un fraude más creíble y personalizado
Según el informe, los atacantes utilizan inteligencia artificial para automatizar conversaciones, imitar emociones y adaptar sus mensajes a cada víctima. Esto les permite construir relaciones digitales que parecen auténticas.
Luis Corrons, ‘Security Evangelist’ de Gen Digital, explica que el primer paso para protegerte es conocer cómo funcionan estos engaños. “Los modelos conversacionales basados en IA son entrenados para reflejar las emociones de la víctima, aumentar la cercanía con ella mediante pequeños compromisos progresivos y elegir el momento adecuado para mostrar vulnerabilidad, justo cuando la persona está emocionalmente más receptiva”, señala.
“El guion de dicho enamoramiento está diseñado al detalle, mediante la IA, que no solo es utilizada para crear lo que se dice para engañar a la víctima, sino también cómo se dice y cuándo”, agrega.
Para Corrons, el mayor riesgo está en la acumulación de señales de confianza. “Esa es la parte más peligrosa de la estafa, porque los humanos no decidimos confiar por un solo hecho, sino por una acumulación de pequeñas señales repetidas. La IA amplifica esas señales con una consistencia y precisión inquietante”.
Incluso puede replicar frases previas de la conversación. “Un ciberestafador impulsivo podría equivocarse o no captar una determinada emoción, pero una IA puede repetir exactamente la frase que la víctima utilizó tres días antes, creando la ilusión de empatía y de una historia compartida”, concluye.

Las estafas amorosas más comunes con IA
El informe identifica varias modalidades que están en auge y que pueden afectarte si usás redes sociales, plataformas de citas o servicios de mensajería.
- Perfiles falsos con deepfake
Los delincuentes utilizan fotos, videos y audios generados con inteligencia artificial para hacerse pasar por personas atractivas o incluso celebridades. Estas identidades digitales interactúan de forma convincente y buscan generar intimidad rápidamente.
- Sextorsión con “intimidad sintética”
La víctima comienza a conversar con un perfil falso y, tras intercambiar mensajes, recibe una imagen o video manipulado con IA que aparenta mostrarla en una situación comprometida. Luego llega la amenaza: pagar para evitar que el material sea difundido.
- Sextorsión recíproca generada por IA
En este caso, el estafador envía primero imágenes eróticas creadas artificialmente para bajar las defensas. Después solicita fotos reales. Cuando las obtiene, inicia el chantaje con exigencias de dinero.
- Clonación de voz
Con apenas segundos de audio, los criminales pueden imitar la voz de tu pareja o un familiar y simular una emergencia urgente, como estar varado en el extranjero y necesitar dinero inmediato.
- El romance que deriva en inversión fraudulenta
Conocida como “Pig butchering”, esta modalidad inicia como una relación afectiva que evoluciona hacia una supuesta oportunidad financiera, muchas veces vinculada a criptomonedas o plataformas exclusivas. La víctima deposita fondos creyendo en un proyecto seguro, hasta que el estafador desaparece.
- Falsas verificaciones en sitios de citas
Algunos portales fraudulentos solicitan “verificar tu identidad” en páginas externas que en realidad recopilan datos personales y bancarios. El anzuelo es la promesa de seguridad y autenticidad.
Te puede interesar: Estados Unidos exigirá exámenes en inglés a conductores comerciales
Cómo reducir el riesgo en tu vida digital
Aunque la tecnología evoluciona rápido, hay señales que podés tener en cuenta. Desconfiá de perfiles que avanzan demasiado rápido en lo emocional, evitá enviar dinero o información financiera a alguien que no conocés en persona y nunca compartás imágenes íntimas con desconocidos.
También es clave verificar la autenticidad de las plataformas, activar la autenticación en dos pasos y mantener actualizados tus dispositivos. Si recibís una amenaza de sextorsión, no pagués de inmediato: buscá asesoría y reportá el caso en la plataforma correspondiente.
Stefnisson subraya que la inteligencia artificial también se utiliza para proteger a usuarios y empresas. Según explica, las compañías de ciberseguridad la aplican para detectar patrones sospechosos y ofrecer defensas en tiempo real.
El crecimiento de estas estafas no significa que debás renunciar a conocer personas en línea, pero sí invita a actuar con mayor conciencia digital. En un entorno donde la IA puede simular afecto, voces y hasta historias de vida completas, la mejor herramienta sigue siendo la información.
Porque en internet, como en cualquier relación, la confianza se construye con tiempo y señales reales. Y hoy más que nunca, conviene verificar antes de creer.
TAGS: Estafas | Inteligencia Artificial
CATEGORIA: Noticias | Internacional
