Ya sea para programar, escribir correos electrónicos o resumir documentos complejos, la inteligencia artificial se ha convertido en una infraestructura digital básica para muchas personas y su uso paso a ser muy extensivo; ChatGPT, por ejemplo, alcanzó a principios de este año, según datos que publica OpenAI, los 900 millones de usuarios activos semanales. Sin embargo, esta escala masiva trae consigo una cuestión crítica para la seguridad digital: ¿dónde va a parar cada palabra que escribimos en ese campo de texto?
Muchas personas pueden creer que las conversaciones son volátiles y funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, interactuar con grandes modelos de lenguaje implica una compleja red de almacenamiento y procesamiento de datos que puede exponer secretos comerciales o información personal sensible si no se tiene cuidado.
En artículos anteriores hablamos sobre qué preguntas no hacerle ChatGPT y qué datos almacena tu cuenta. Ahora vamos a sumergirnos en el ciclo de vida de la información en esta herramienta: ¿qué ocurre con tu texto después de darle Enter?
¿Adónde van a parar tus conversaciones con ChatGPT?
Cuando escribes información en ChatGPT, no se guarda únicamente en tu navegador. El texto recorre un camino que involucra tres capas fundamentales de tratamiento de datos:
1. Almacenamiento e historial
En cuanto envías un mensaje, se almacena en los servidores de OpenAI para que puedas acceder a tu historial en diferentes dispositivos y para que el chatbot mantenga el contexto de la conversación actual. Puede conservarse por períodos limitados, como hasta 30 días en ciertos casos, por motivos de seguridad y monitoreo de abusos.
2. Entrenamiento de modelos (el punto crítico)
Este es el centro del debate sobre la privacidad. Por defecto, OpenAI puede utilizar las conversaciones de las versiones gratuitas y Plus para perfeccionar sus modelos. Sin embargo, el usuario puede desactivar esta opción en la configuración. En ChatGPT Business, Enterprise, Edu, Healthcare y en la API, la herramienta no utiliza los datos para entrenamiento de forma predeterminada.
El riesgo: si un empleado introduce un fragmento de código propietario o un plan estratégico de marketing, estos podrían influir en el comportamiento del modelo. Aunque es lógico pensar que, al entrenar el modelo con nuestra información, esta podría de alguna forma ser “utilizada” para otros usuarios, ese enfoque sugiere la posibilidad de que la IA comparta datos sensibles, lo que, según la política de privacidad, no debería ocurrir. Sin embargo, lo que sí se puede afirmar es que estudios académicos han demostrado que los modelos de lenguaje de gran escala (LLM) pueden memorizar partes de sus datos de entrenamiento y que, bajo ciertas condiciones, esta información puede ser extraída mediante técnicas especializadas.
3. Revisión humana
Para garantizar que la IA no genere contenido ofensivo o peligroso, una muestra de conversaciones anonimizadas pasa por revisores humanos. Son especialistas capacitados que leen fragmentos de los diálogos para evaluar la calidad y la seguridad de la respuesta. Es decir: no es solo una máquina la que "lee" lo que escribes; personas reales pueden tener acceso a partes de tu interacción.
Cómo utiliza la inteligencia artificial tus datos para entrenar modelos
Uno de los mayores mitos sobre la Inteligencia Artificial es que funciona como una base de datos tradicional, donde puedes simplemente "eliminar" un registro. En realidad, cuando los datos se utilizan para entrenamiento, pasan por un proceso de ponderación estadística dentro del modelo.
La filtración involuntaria de información
El mayor riesgo no es solo que OpenAI tenga acceso a tus datos, sino que la IA "aprenda" patrones de tu texto y los reproduzca de forma general en sus respuestas.
Ejemplo de impacto estratégico: imagina que un analista de marketing utiliza una cuenta personal de IA para trabajar en un plan confidencial de lanzamiento. Dependiendo de la herramienta, el tipo de cuenta y la configuración de privacidad, este contenido puede utilizarse para mejorar modelos futuros. Esto no significa que la IA vaya a revelar automáticamente la estrategia a otros usuarios, pero puede exponer a la empresa a la pérdida de control sobre información sensible y, en escenarios específicos, a riesgos de memorización o extracción de datos ya documentados en investigaciones sobre modelos de lenguaje. Por ello, los planes estratégicos, el código propietario, las credenciales, los datos de clientes o los documentos internos deben utilizarse únicamente en herramientas de IA aprobadas por la empresa y con controles de privacidad adecuados.
Revisores humanos y ruptura del anonimato
Aunque OpenAI afirma que los datos enviados para revisión humana son anonimizados, el contexto puede delatar al usuario.
Si pegas un contrato legal detallado, aunque elimines el nombre de la empresa, el contenido de las cláusulas, los valores y las fechas puede permitir a un revisor identificar de quién se trata. En seguridad digital, un dato anonimizado solo es seguro si no permite la "reidentificación".
El impacto del ChatGPT en el entorno empresarial y los riesgos asociados a la LGPD
Para las empresas que operan en Brasil, el uso de ChatGPT sin directrices claras puede generar conflictos con la Ley General de Protección de Datos (LGPD).
-
Tratamiento de datos sin consentimiento: si un empleado introduce datos de clientes en la IA para generar un informe, la empresa está transfiriendo datos personales a un tercero (OpenAI) sin la base legal adecuada ni el control de seguridad correspondiente.
-
Shadow AI: el uso de cuentas personales de IA para tareas laborales crea un "punto ciego" para el departamento de TI. Sin visibilidad sobre lo que se escribe, la empresa pierde el control sobre su propiedad intelectual.
Seguridad de las cuentas ChatGPT: el peligro de las credenciales en la Dark Web
Además de los riesgos inherentes al procesamiento de datos por parte de la plataforma, existe una amenaza externa creciente: el interés de los ciberdelincuentes en las credenciales de acceso a ChatGPT. Dado que las conversaciones suelen contener información sensible, código fuente y estrategias de negocio, una cuenta comprometida se convierte en una mina de oro para el espionaje industrial y el robo de identidad.
Datos de 2024 muestran la gravedad del escenario: más de 225.000 registros de inicio de sesión de ChatGPT fueron encontrados a la venta en foros de la Dark Web. Este volumen masivo de credenciales robadas, a menudo mediante malware del tipo infostealer, demuestra que el peligro no está solo en lo que escribes, sino en quién puede acceder a tu historial si tu cuenta no está correctamente protegida.
Más allá de ChatGPT: ¿Cómo tratan Google Gemini y Anthropic Claude tu privacidad?
Aunque ChatGPT domina la conversación, el ecosistema de la Inteligencia Artificial Generativa incluye otros grandes actores con enfoques diferentes en la protección de datos. Para los usuarios que se mueven entre distintas plataformas, entender que el riesgo no es universal sino adaptable a cada empresa es el primer paso hacia una postura de seguridad digital consciente.
¿Cómo almacena Gemini su información?
Google Gemini, por ejemplo, opera dentro de la amplia infraestructura de Google. Según el Centro de Privacidad de Gemini, la empresa utiliza las conversaciones para mejorar sus servicios, lo que incluye revisión por parte de entrenadores humanos.
La diferencia aquí radica en la integración: si utilizas Gemini dentro del entorno corporativo de Google Workspace, las políticas de privacidad empresarial establecen que los datos no se utilizan para entrenar modelos globales de lenguaje. El proceso de "anonimización" de Google elimina la información de la cuenta, pero el contenido de lo que escribes puede seguir siendo analizado para mejorar la precisión de las respuestas, a menos que la configuración de actividad de IA se desactive manualmente.
¿Cómo utiliza Claude tu información?
Por otro lado, Anthropic, con su modelo Claude, presenta una filosofía de "IA Constitucional". En su Política de Privacidad y Términos de Uso, la empresa destaca que la retención de datos se mantiene al mínimo. Claude se distingue por poner mayor énfasis en mecanismos automatizados de alineación del comportamiento de la IA mediante principios automatizados de seguridad.
Para los usuarios de la versión gratuita, los datos pueden usarse para mejorar el modelo, pero Anthropic ofrece un proceso de exclusión (opt-out) más directo para sus clientes comerciales, asegurando que el código fuente o los secretos empresariales enviados a través de la API permanezcan privados.
La gran similitud entre todos estos modelos es que ninguno funciona como una "bóveda" completamente aislada por defecto. Ya sea en OpenAI, Google o Anthropic, el proceso de aprendizaje automático depende de datos. La verdadera diferencia para tu seguridad radica en el contrato: mientras que en las versiones gratuitas los datos pueden contribuir indirectamente a la mejora del sistema, en las versiones empresariales la privacidad se trata como un servicio premium, donde los datos se procesan, pero no se utilizan para entrenar modelos.
Mejores prácticas de seguridad: cómo proteger tu privacidad en ChatGPT y otras herramientas de IA
Una vez que entendemos que el ciclo de vida de los datos en Inteligencia Artificial implica almacenamiento, entrenamiento e incluso revisión humana, queda claro que la seguridad no depende solo de las empresas, sino de la actitud de cada usuario. Para garantizar que tu experiencia con la IA sea productiva y segura, hemos recopilado las principales recomendaciones de protección.
Protección del comportamiento y anonimización
La herramienta más poderosa de seguridad digital es tu propio criterio. La regla de oro es nunca introducir información que no harías pública. Antes de enviar un prompt, realiza una "limpieza" manual: reemplaza nombres de clientes por alias, elimina valores financieros específicos y oculta fragmentos de código que contengan claves de acceso o vulnerabilidades de infraestructura. Recuerda: una vez que los datos son procesados por el modelo, el "desaprendizaje" de la IA es un proceso técnicamente complejo y no siempre garantizado.
Gestión de cuentas y protección contra accesos no autorizados
Como vimos, el robo de credenciales en la Dark Web es una amenaza real. Para evitar que los ciberdelincuentes accedan a tu historial de conversaciones, es fundamental utilizar contraseñas fuertes y únicas. Activa siempre la autenticación de dos factores (2FA) disponible en la configuración de OpenAI, Google o Anthropic. Además, mantén tu sistema operativo y antivirus actualizados para evitar malware del tipo infostealer, principal responsable de la recolección de credenciales de herramientas de IA.
Configuración de privacidad (Opt-out)
No aceptes la configuración predeterminada. Explora el menú de "Controles de datos" de ChatGPT para desactivar el historial de chat y el entrenamiento de modelos. En el caso de Gemini, gestiona tu actividad en "Actividad en apps de Gemini" para decidir qué debe o no almacenar Google. Estas acciones reducen drásticamente tu huella digital y ayudan a que tus interacciones sean tratadas con mayor confidencialidad.




