¿Usás ChatGPT? Así podés proteger tus datos personales
El uso de inteligencia artificial crece, pero expertos advierten sobre cómo se almacena la información y qué medidas tomar para evitar riesgos.
Por
Juan Martínez
Publicado el 11 de mayo de 2026
El uso de ChatGPT continúa creciendo, pero también surgen preocupaciones sobre la privacidad de los datos. Según ESET, la información ingresada puede almacenarse en servidores, utilizarse para mejorar modelos y ser revisada de forma anonimizada. Entre los riesgos destacan la exposición de datos sensibles y el acceso no autorizado a cuentas, con más de 225,000 credenciales detectadas en la dark web. Expertos recomiendan no compartir información confidencial, modificar datos antes de ingresarlos y revisar la configuración de privacidad. También sugieren usar contraseñas seguras y activar la verificación en dos pasos para proteger la información personal al usar herramientas de inteligencia artificial.
El uso de herramientas como ChatGPT se ha vuelto cada vez más común en tareas diarias, desde consultas rápidas hasta apoyo en el trabajo o estudio. Sin embargo, junto con su expansión también surgen dudas sobre qué ocurre con los datos que ingresás y cómo podés proteger tu información personal. De acuerdo con la empresa de ciberseguridad ESET, entender este proceso es clave para reducir riesgos.
“Muchas personas pueden creer que las conversaciones son volátiles y funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, interactuar con grandes modelos de lenguaje implica una compleja red de almacenamiento y procesamiento de datos”, explicó Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

Cómo se procesan tus datos
Según ESET, cuando utilizás ChatGPT, la información que ingresás no se limita a una interacción momentánea. El contenido puede almacenarse en servidores con el objetivo de mantener el historial de conversaciones y permitir continuidad entre dispositivos.
Además, estos datos pueden conservarse hasta por 30 días por motivos de seguridad, lo que implica que la información no desaparece inmediatamente después de cerrar la sesión.
Otro punto relevante es que las conversaciones pueden utilizarse para mejorar los modelos de inteligencia artificial, especialmente en versiones gratuitas o estándar. Esto significa que el contenido ingresado podría formar parte de procesos de entrenamiento.
ESET también indica que algunas interacciones pueden ser revisadas por equipos humanos, aunque de forma anonimizada, con el fin de evaluar la calidad y seguridad de las respuestas generadas por el sistema.
Este conjunto de procesos muestra que el uso de estas herramientas va más allá de una conversación privada tradicional.

Riesgos que debés tener en cuenta
Uno de los principales riesgos señalados por ESET es la exposición de información sensible. Esto incluye datos personales, contraseñas, documentos confidenciales o cualquier contenido que no debería ser compartido públicamente.
“El mayor riesgo es que la IA aprenda patrones de los textos que se le comparten y los reproduzca de forma general en sus respuestas”, advirtió Micucci.
Esto implica que, aunque la información no se muestre de forma directa, podría influir en respuestas futuras del sistema.
Otro riesgo identificado es la seguridad de las cuentas. Según datos citados por ESET, en 2024 se detectaron más de 225,000 credenciales de acceso a ChatGPT en foros de la dark web, lo que evidencia la exposición de usuarios a posibles accesos no autorizados.
Si una cuenta es comprometida, el historial de conversaciones podría quedar accesible, aumentando el riesgo de filtración de información.

Medidas para proteger tu información
Ante este escenario, ESET recomienda adoptar una serie de medidas prácticas para reducir riesgos al usar herramientas de inteligencia artificial.
La principal es no compartir información confidencial. Esto incluye evitar ingresar datos personales, contraseñas, información bancaria o contenido sensible relacionado con el trabajo o terceros.
También se sugiere modificar o eliminar datos sensibles antes de ingresarlos, utilizando nombres ficticios o eliminando detalles que no sean necesarios para la consulta.
Otra acción clave es revisar la configuración de privacidad. Los usuarios pueden optar por desactivar el historial de conversaciones o limitar el uso de datos para el entrenamiento de modelos.
En cuanto a la seguridad de la cuenta, ESET recomienda utilizar contraseñas seguras y activar la verificación en dos pasos, una medida que agrega una capa adicional de protección frente a accesos no autorizados.
Además, mantener actualizado el dispositivo y estar atento a posibles intentos de fraude o suplantación también forma parte de las prácticas recomendadas.

Uso consciente de la inteligencia artificial
El crecimiento de plataformas como ChatGPT ha cambiado la forma en que las personas acceden a la información y resuelven tareas. Sin embargo, este avance también implica nuevos desafíos en materia de privacidad.
Comprender que la información ingresada puede almacenarse, procesarse y utilizarse en distintos niveles permite tomar decisiones más informadas al usar estas herramientas.
ESET insiste en que el uso de inteligencia artificial no debe implicar riesgos innecesarios si se aplican medidas básicas de protección. Evitar compartir datos sensibles, revisar configuraciones y proteger las cuentas son pasos clave para un uso más seguro.
TAGS: Inteligencia Artificial | Tecnología | Tipos de Inteligencia
CATEGORIA: Vida | Hogar y espacios
