Santa Ana 24oC   61% H San Salvador 24oC   69% H San Miguel 24oC   69% H Surf City 26oC   50% H
  mapa
EDH

Guerra en Irán Copa Presidente 2026 Calendario Mundial 2026 Conciertos en El Salvador Turismo en El Salvador

Banner versión desktop Banner versión móvil
Cada vez más personas usan chatbots de inteligencia artificial para trabajar, resolver dudas o pedir consejos, lo que abre nuevas preguntas sobre privacidad digital.

Lo que le contamos a la IA… ¿podría volverse en nuestra contra?

Cada vez más personas usan chatbots como ChatGPT para pedir consejos, trabajar o desahogarse. Pero ¿qué pasa con esa información si las conversaciones se filtran?

Avatar del autor

Por Betty Carranza
Publicado el 12 de marzo de 2026

 

TU RESUMEN

Cada vez más personas usan chatbots de inteligencia artificial como ChatGPT, Gemini o Copilot para trabajar, pedir consejos o incluso desahogarse. Sin embargo, expertos en ciberseguridad advierten que esas conversaciones no siempre son privadas. Según la compañía ESET, muchos usuarios comparten datos personales, información laboral o temas sensibles sin considerar que las plataformas pueden almacenar o analizar esas interacciones. Si las conversaciones se filtraran, podrían facilitar robos de identidad, espionaje corporativo o extorsión. Para reducir riesgos, especialistas recomiendan evitar compartir datos personales, no subir documentos confidenciales y reforzar la seguridad de las cuentas con contraseñas robustas y verificación en dos pasos.

Usar chatbots de inteligencia artificial como ChatGPT, Gemini o Copilot se volvió parte de la vida cotidiana: pedir ayuda para un correo, mejorar un documento o incluso buscar consejos personales. Pero esa conversación que parece íntima podría no ser tan privada como creemos. Expertos en ciberseguridad advierten que compartir información sensible con la IA puede implicar riesgos si esas conversaciones quedan expuestas.

Cuando el chatbot se vuelve confidente

La experiencia de conversar con un chatbot es tan natural que muchas personas terminan tratándolo como un asistente personal o incluso como un consejero. Se le consultan dudas laborales, decisiones personales y hasta inquietudes emocionales.

Sin embargo, esa sensación de intimidad puede ser engañosa. Según explica Martina López, investigadora de Seguridad Informática de ESET Latinoamérica, los chatbots no fueron diseñados como espacios confidenciales.

“No es una novedad que muchas personas usan los chatbots como si fueran espacios privados. Utilizarlos de esa manera se contradice con la naturaleza de este tipo de herramientas ya que las propias plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio”, destaca la especialista.

De acuerdo con el análisis de ESET, compañía dedicada a la detección proactiva de amenazas digitales, muchas personas comparten más información de la que imaginan mientras interactúan con estas herramientas.

Las cosas que solemos contarle a la IA

En el día a día, los chatbots se usan para resolver tareas, buscar ideas o pedir orientación. Pero en ese intercambio también suelen aparecer datos personales o información sensible.

Entre los contenidos que más se comparten están:

  • Datos personales como nombre, edad, ciudad o información sobre la familia.
  • Detalles del trabajo, incluyendo correos internos, informes o presentaciones.
  • Consultas médicas o psicológicas, síntomas o tratamientos.
  • Opiniones personales sobre temas políticos, religiosos o laborales.

El problema, advierte López, no es solo lo que se comparte, sino la percepción de seguridad que genera la conversación.

“El problema no es lo que se comparte, sino esa falsa sensación de intimidad y privacidad, la cual puede romperse muy fácilmente. Meses de conversaciones construyen un perfil, que puede tener un valor muy alto para un ciberatacante”, agrega la investigadora de ESET.

Expertos en ciberseguridad advierten que compartir información sensible en chatbots puede generar riesgos si las cuentas son vulneradas o las conversaciones se filtran.
Expertos en ciberseguridad advierten que compartir información sensible en chatbots puede generar riesgos si las cuentas son vulneradas o las conversaciones se filtran. / Shutterstock

Cómo podrían filtrarse las conversaciones

Aunque las principales plataformas de inteligencia artificial aplican medidas de seguridad y privacidad, eso no significa que las conversaciones sean invulnerables.

Según el análisis de ESET, hay varias situaciones que podrían exponer la información compartida con un chatbot.

Una de las más comunes ocurre cuando alguien accede a la cuenta del usuario. Esto puede suceder si se obtiene la contraseña, si la persona cae en un ataque de phishing o si utiliza la misma clave en distintos servicios.

También existe el riesgo de que los chatbots sean manipulados mediante instrucciones maliciosas, conocidas como prompts maliciosos, con el objetivo de obtener información de los usuarios.

A esto se suman otros escenarios posibles: aceptar términos y condiciones sin revisarlos, brechas de seguridad en la plataforma o el uso de extensiones y aplicaciones que interactúan con el chatbot y pueden acceder a las conversaciones.

Te puede interesar: ¿Hackearon tu cuenta? Actuá en los primeros 15 minutos

Los riesgos reales de una filtración

Si las conversaciones con un chatbot quedaran expuestas, las consecuencias pueden ir mucho más allá de la incomodidad.

El equipo de ESET identifica cinco riesgos principales:

  • Robo de identidad o ataques de ingeniería social basados en información personal.
  • Espionaje corporativo al exponer documentos o estrategias laborales.
  • Daño reputacional si opiniones privadas o dudas profesionales se vuelven públicas.
  • Exposición de datos sensibles relacionados con salud, creencias o conflictos personales.
  • Extorsión a partir de información privada obtenida por cibercriminales.

En muchos casos, estas conversaciones contienen detalles sobre hábitos, rutinas o decisiones personales que podrían ser utilizados para construir ataques mucho más creíbles.

Cómo usar chatbots con más seguridad

La buena noticia es que no se trata de dejar de usar inteligencia artificial, sino de hacerlo con criterio y algunos hábitos digitales simples.

ESET recomienda adoptar prácticas que ayuden a reducir el riesgo al interactuar con chatbots:

  • Evitar compartir datos personales como número de documento, teléfono o correo.
  • Cambiar nombres, empresas o ubicaciones cuando se plantea un caso real.
  • No adjuntar documentos sensibles ni credenciales.
  • Revisar las configuraciones de privacidad de la plataforma.
  • Usar contraseñas robustas y activar la verificación en dos pasos.
  • Utilizar cuentas separadas para trabajo y uso personal.

También conviene hacerse una pregunta sencilla antes de enviar un mensaje a la IA: ¿diría esto en voz alta en una sala llena de desconocidos?

Una herramienta poderosa que también necesita límites

La inteligencia artificial llegó para quedarse y puede ser una aliada poderosa para estudiar, trabajar o resolver problemas cotidianos. Pero, como toda tecnología, requiere ciertos cuidados.

“La comodidad de una conversación fluida, natural y sin juicio, hace que bajemos la guardia y compartamos información que jamás publicaríamos en otro espacio digital”, señala López.

La especialista concluye que una filtración de conversaciones puede revelar mucho más que datos: también puede exponer rutinas, emociones y decisiones personales.

Por eso, la clave no está en desconfiar de la tecnología, sino en entender sus límites. Los chatbots pueden ser herramientas muy útiles, pero no son espacios confidenciales ni bóvedas para información sensible. Usarlos con criterio y hábitos digitales responsables sigue siendo la mejor forma de aprovechar todo su potencial.

💡
¿Qué deseas ver ahora?