HantavirusMes de la MadreMundial 2026ConciertosSismos

Banner versión desktop Banner versión móvil
¿Usás ChatGPT? Así podés proteger tus datos personales

¿Usás ChatGPT? Así podés proteger tus datos personales

El uso de inteligencia artificial crece, pero expertos advierten sobre cómo se almacena la información y qué medidas tomar para evitar riesgos.

Avatar del autor

Por Juan Martínez
Publicado el 11 de mayo de 2026

 

TU RESUMEN

El uso de ChatGPT continúa creciendo, pero también surgen preocupaciones sobre la privacidad de los datos. Según ESET, la información ingresada puede almacenarse en servidores, utilizarse para mejorar modelos y ser revisada de forma anonimizada. Entre los riesgos destacan la exposición de datos sensibles y el acceso no autorizado a cuentas, con más de 225,000 credenciales detectadas en la dark web. Expertos recomiendan no compartir información confidencial, modificar datos antes de ingresarlos y revisar la configuración de privacidad. También sugieren usar contraseñas seguras y activar la verificación en dos pasos para proteger la información personal al usar herramientas de inteligencia artificial.

Escuchar este artículo

El uso de herramientas como ChatGPT se ha vuelto cada vez más común en tareas diarias, desde consultas rápidas hasta apoyo en el trabajo o estudio. Sin embargo, junto con su expansión también surgen dudas sobre qué ocurre con los datos que ingresás y cómo podés proteger tu información personal. De acuerdo con la empresa de ciberseguridad ESET, entender este proceso es clave para reducir riesgos.

“Muchas personas pueden creer que las conversaciones son volátiles y funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, interactuar con grandes modelos de lenguaje implica una compleja red de almacenamiento y procesamiento de datos”, explicó Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

La sociedad alemana GEMA acusa a ChatGPT de reproducir letras de canciones sin licencia en su sistema de inteligencia artificial. Foto/ Freepik
Más de 225,000 credenciales de ChatGPT han sido detectadas en la dark web, según ESET. Foto/ Freepik

Cómo se procesan tus datos

Según ESET, cuando utilizás ChatGPT, la información que ingresás no se limita a una interacción momentánea. El contenido puede almacenarse en servidores con el objetivo de mantener el historial de conversaciones y permitir continuidad entre dispositivos.

Además, estos datos pueden conservarse hasta por 30 días por motivos de seguridad, lo que implica que la información no desaparece inmediatamente después de cerrar la sesión.

Otro punto relevante es que las conversaciones pueden utilizarse para mejorar los modelos de inteligencia artificial, especialmente en versiones gratuitas o estándar. Esto significa que el contenido ingresado podría formar parte de procesos de entrenamiento.

ESET también indica que algunas interacciones pueden ser revisadas por equipos humanos, aunque de forma anonimizada, con el fin de evaluar la calidad y seguridad de las respuestas generadas por el sistema.

Este conjunto de procesos muestra que el uso de estas herramientas va más allá de una conversación privada tradicional.

CahtGPT de OpenA
La privacidad en herramientas de inteligencia artificial depende en gran medida del uso del usuario. Foto: AFP

Riesgos que debés tener en cuenta

Uno de los principales riesgos señalados por ESET es la exposición de información sensible. Esto incluye datos personales, contraseñas, documentos confidenciales o cualquier contenido que no debería ser compartido públicamente.

“El mayor riesgo es que la IA aprenda patrones de los textos que se le comparten y los reproduzca de forma general en sus respuestas”, advirtió Micucci.

Esto implica que, aunque la información no se muestre de forma directa, podría influir en respuestas futuras del sistema.

Otro riesgo identificado es la seguridad de las cuentas. Según datos citados por ESET, en 2024 se detectaron más de 225,000 credenciales de acceso a ChatGPT en foros de la dark web, lo que evidencia la exposición de usuarios a posibles accesos no autorizados.

Si una cuenta es comprometida, el historial de conversaciones podría quedar accesible, aumentando el riesgo de filtración de información.

OpenIA lanza nueva versión de su ChatGPT en primera conferencia anual
Activar la verificación en dos pasos ayuda a proteger las cuentas en plataformas digitales. Foto: AFP

Medidas para proteger tu información

Ante este escenario, ESET recomienda adoptar una serie de medidas prácticas para reducir riesgos al usar herramientas de inteligencia artificial.

La principal es no compartir información confidencial. Esto incluye evitar ingresar datos personales, contraseñas, información bancaria o contenido sensible relacionado con el trabajo o terceros.

También se sugiere modificar o eliminar datos sensibles antes de ingresarlos, utilizando nombres ficticios o eliminando detalles que no sean necesarios para la consulta.

Otra acción clave es revisar la configuración de privacidad. Los usuarios pueden optar por desactivar el historial de conversaciones o limitar el uso de datos para el entrenamiento de modelos.

En cuanto a la seguridad de la cuenta, ESET recomienda utilizar contraseñas seguras y activar la verificación en dos pasos, una medida que agrega una capa adicional de protección frente a accesos no autorizados.

Además, mantener actualizado el dispositivo y estar atento a posibles intentos de fraude o suplantación también forma parte de las prácticas recomendadas.

ChatGPT
La herramienta ChatGPT fue lanzada por la empresa OpenAI. Foto: AFP

Uso consciente de la inteligencia artificial

El crecimiento de plataformas como ChatGPT ha cambiado la forma en que las personas acceden a la información y resuelven tareas. Sin embargo, este avance también implica nuevos desafíos en materia de privacidad.

Comprender que la información ingresada puede almacenarse, procesarse y utilizarse en distintos niveles permite tomar decisiones más informadas al usar estas herramientas.

ESET insiste en que el uso de inteligencia artificial no debe implicar riesgos innecesarios si se aplican medidas básicas de protección. Evitar compartir datos sensibles, revisar configuraciones y proteger las cuentas son pasos clave para un uso más seguro.

💡
¿Qué deseas ver ahora?