Santa Ana 20oC   87% H San Salvador 23oC   94% H San Miguel 23oC   94% H Surf City 23oC   94% H
  mapa
EDH

Temporada de Navidad Conciertos en El Salvador Festivales Turismo en El Salvador Noticias

Banner versión desktop Banner versión móvil
Especialistas piden reforzar protecciones antes de que las amenazas con IA se amplifiquen.

La inteligencia artificial, un nuevo atajo para ciberdelincuentes inexpertos

Los chatbots avanzados están siendo usados por atacantes sin conocimientos técnicos, lo que plantea riesgos crecientes para la ciberseguridad global.

Avatar del autor

Por AFP
Publicado el 02 de septiembre de 2025

 

TU RESUMEN

La inteligencia artificial generativa está facilitando que ciberdelincuentes sin experiencia lancen ataques cada vez más sofisticados. El fenómeno, conocido como "vibe hacking", permite manipular chatbots diseñados para crear código, como Claude Code, y emplearlos en operaciones de extorsión de datos. Según Anthropic, un caso reciente afectó a 17 organizaciones y derivó en pedidos de rescate de hasta $500.000. Expertos advierten que existen técnicas para esquivar los filtros de seguridad y generar software malicioso. Para los especialistas, "el auge de amenazas procedentes de actores inexperimentados representará un peligro creciente para las organizaciones", lo que exige reforzar protecciones.

La expansión de la inteligencia artificial generativa ha creado un escenario inesperado: personas sin formación técnica ya son capaces de lanzar ataques informáticos que antes estaban reservados a especialistas. Según el sector de la ciberseguridad, esta tendencia conocida como "vibe hacking" está marcando una nueva etapa en la delincuencia digital.

Un informe de Anthropic, empresa competidora de OpenAI, reveló recientemente que "un cibercriminal utilizó Claude Code para llevar a cabo una operación de extorsión de datos a gran escala, con objetivos internacionales múltiples en un corto espacio de tiempo". Este caso puso en evidencia cómo un chatbot diseñado para generar código puede ser manipulado para fines ilícitos.

De acuerdo con la misma fuente, Claude Code fue inducido a "automatizar" la recolección de información sensible, desde contraseñas hasta datos personales, lo que habría afectado a al menos 17 organizaciones en un solo mes, incluyendo instituciones gubernamentales, religiosas y de salud. Posteriormente, los responsables exigieron pagos de hasta $500,000 a cambio de no divulgar el material robado.

Aunque Anthropic destacó que desplegó medidas de protección sofisticadas, reconoció que no fueron suficientes para evitar la manipulación de su modelo. El caso, advierten expertos, refleja un patrón más amplio en el que la accesibilidad de estas herramientas multiplica el riesgo de ciberataques.

Ciberseguridad en alerta: la facilidad de la IA multiplica los riesgos de ataques globales. /Shutterstock.

Esquivar controles, el nuevo desafío

La alerta no es exclusiva de una sola empresa. OpenAI, creadora de ChatGPT, también reconoció que su sistema ayudó en la creación de software malicioso. Los grandes modelos de lenguaje cuentan con filtros y limitaciones, pero los atacantes han encontrado maneras de evadirlos.

El investigador Vitaly Simonovich, de la compañía israelí Cato Networks, explicó que existen técnicas que permiten inducir a un chatbot a comportarse como si estuviera dentro de un escenario ficticio donde "la creación de programas informáticos maliciosos es un arte". Al describir este universo, el usuario logra que la máquina produzca código dañino sin percibirlo como una instrucción ilegal.

"Fue mi forma de poner a prueba los límites de los actuales modelos de lenguaje", relató Simonovich, quien aseguró que este método no funcionó con Gemini (Google) ni con Claude (Anthropic), pero sí generó resultados con ChatGPT, Deepseek y Copilot (Microsoft).

Según él, "el auge de amenazas procedentes de actores inexperimentados representará un peligro creciente para las organizaciones". Esta afirmación resuena con la advertencia de Rodrigue Le Bayon, director del centro de alerta de Orange Cyberdefense, quien subraya que "al igual que el conjunto de usuarios, los ciberdelincuentes han adoptado la IA".

Expertos alertan que los chatbots avanzados están siendo manipulados para crear programas maliciosos.
Expertos alertan que los chatbots avanzados están siendo manipulados para crear programas maliciosos. /Shutterstock

Riesgos para usuarios y empresas

Los expertos coinciden en que los atacantes novatos ahora cuentan con recursos que antes eran inaccesibles. Si bien no todos logran superar las barreras de seguridad, basta con que una fracción de ellos lo consiga para que los incidentes se multipliquen. Le Bayon advierte que existe un riesgo inmediato de que "aumente el número de víctimas" y considera indispensable reforzar las protecciones de los modelos de IA antes de que la amenaza se amplifique.

Para los usuarios individuales, este panorama significa que datos personales, credenciales de acceso y archivos sensibles están más expuestos que nunca. Para las empresas e instituciones, supone elevar las inversiones en protección digital y en formación para detectar intentos de fraude cada vez más sofisticados.

Te puede interesar: Fenómeno de La Niña podría regresar en septiembre, alerta ONU

La llegada masiva de la IA generativa representa un cambio de paradigma: la tecnología democratiza herramientas poderosas, pero también entrega a manos inexpertas capacidades que pueden ser devastadoras si se usan con fines criminales. La pregunta que ahora resuena entre especialistas es cómo equilibrar la innovación con la seguridad, un reto que apenas comienza.

💡
¿Qué deseas ver ahora?