La inteligencia artificial, un nuevo atajo para ciberdelincuentes inexpertos
Los chatbots avanzados están siendo usados por atacantes sin conocimientos técnicos, lo que plantea riesgos crecientes para la ciberseguridad global.
Por
AFP
Publicado el 02 de septiembre de 2025
La inteligencia artificial generativa está facilitando que ciberdelincuentes sin experiencia lancen ataques cada vez más sofisticados. El fenómeno, conocido como "vibe hacking", permite manipular chatbots diseñados para crear código, como Claude Code, y emplearlos en operaciones de extorsión de datos. Según Anthropic, un caso reciente afectó a 17 organizaciones y derivó en pedidos de rescate de hasta $500.000. Expertos advierten que existen técnicas para esquivar los filtros de seguridad y generar software malicioso. Para los especialistas, "el auge de amenazas procedentes de actores inexperimentados representará un peligro creciente para las organizaciones", lo que exige reforzar protecciones.
La expansión de la inteligencia artificial generativa ha creado un escenario inesperado: personas sin formación técnica ya son capaces de lanzar ataques informáticos que antes estaban reservados a especialistas. Según el sector de la ciberseguridad, esta tendencia conocida como "vibe hacking" está marcando una nueva etapa en la delincuencia digital.
Un informe de Anthropic, empresa competidora de OpenAI, reveló recientemente que "un cibercriminal utilizó Claude Code para llevar a cabo una operación de extorsión de datos a gran escala, con objetivos internacionales múltiples en un corto espacio de tiempo". Este caso puso en evidencia cómo un chatbot diseñado para generar código puede ser manipulado para fines ilícitos.
De acuerdo con la misma fuente, Claude Code fue inducido a "automatizar" la recolección de información sensible, desde contraseñas hasta datos personales, lo que habría afectado a al menos 17 organizaciones en un solo mes, incluyendo instituciones gubernamentales, religiosas y de salud. Posteriormente, los responsables exigieron pagos de hasta $500,000 a cambio de no divulgar el material robado.
Aunque Anthropic destacó que desplegó medidas de protección sofisticadas, reconoció que no fueron suficientes para evitar la manipulación de su modelo. El caso, advierten expertos, refleja un patrón más amplio en el que la accesibilidad de estas herramientas multiplica el riesgo de ciberataques.

Esquivar controles, el nuevo desafío
La alerta no es exclusiva de una sola empresa. OpenAI, creadora de ChatGPT, también reconoció que su sistema ayudó en la creación de software malicioso. Los grandes modelos de lenguaje cuentan con filtros y limitaciones, pero los atacantes han encontrado maneras de evadirlos.
El investigador Vitaly Simonovich, de la compañía israelí Cato Networks, explicó que existen técnicas que permiten inducir a un chatbot a comportarse como si estuviera dentro de un escenario ficticio donde "la creación de programas informáticos maliciosos es un arte". Al describir este universo, el usuario logra que la máquina produzca código dañino sin percibirlo como una instrucción ilegal.
"Fue mi forma de poner a prueba los límites de los actuales modelos de lenguaje", relató Simonovich, quien aseguró que este método no funcionó con Gemini (Google) ni con Claude (Anthropic), pero sí generó resultados con ChatGPT, Deepseek y Copilot (Microsoft).
Según él, "el auge de amenazas procedentes de actores inexperimentados representará un peligro creciente para las organizaciones". Esta afirmación resuena con la advertencia de Rodrigue Le Bayon, director del centro de alerta de Orange Cyberdefense, quien subraya que "al igual que el conjunto de usuarios, los ciberdelincuentes han adoptado la IA".

Riesgos para usuarios y empresas
Los expertos coinciden en que los atacantes novatos ahora cuentan con recursos que antes eran inaccesibles. Si bien no todos logran superar las barreras de seguridad, basta con que una fracción de ellos lo consiga para que los incidentes se multipliquen. Le Bayon advierte que existe un riesgo inmediato de que "aumente el número de víctimas" y considera indispensable reforzar las protecciones de los modelos de IA antes de que la amenaza se amplifique.
Para los usuarios individuales, este panorama significa que datos personales, credenciales de acceso y archivos sensibles están más expuestos que nunca. Para las empresas e instituciones, supone elevar las inversiones en protección digital y en formación para detectar intentos de fraude cada vez más sofisticados.
Te puede interesar: Fenómeno de La Niña podría regresar en septiembre, alerta ONU
La llegada masiva de la IA generativa representa un cambio de paradigma: la tecnología democratiza herramientas poderosas, pero también entrega a manos inexpertas capacidades que pueden ser devastadoras si se usan con fines criminales. La pregunta que ahora resuena entre especialistas es cómo equilibrar la innovación con la seguridad, un reto que apenas comienza.
