En la película Her, el protagonista inicia una relación romántica —que termina mal— con un sofisticado sistema de IA. Cuando se estrenó en 2013, esto parecía pura ciencia ficción. Pero con la llegada de la inteligencia artificial generativa (GenAI) y los modelos de lenguaje (LLM), ya no suena tan descabellado. De hecho, las apps que ofrecen compañía emocional virtual son tendencia global y empiezan a ganar terreno en Latinoamérica, impulsadas por redes sociales y creadores de contenido

Estas aplicaciones no solo ofrecen conversación: buscan llenar vacíos emocionales, lo que lleva a muchos usuarios a compartir información sensible sin medir las consecuencias. Y ahí está el problema: ¿qué tan seguro es confiarles tus secretos?

Buscando compañía (digital)

Las apps de interacción emocional responden a una demanda creciente. Plataformas como Character.AI, Nomi y Replika usan LLM y procesamiento de lenguaje natural para interactuar de forma conversacional y personalizada. Incluso los grandes jugadores se suman: OpenAI anunció contenido para adultos verificados y xAI lanzó bots para conversaciones íntimas en su app Grok.

Un estudio publicado en julio reveló que casi tres cuartas partes de los adolescentes han usado compañeros virtuales, y la mitad lo hace con frecuencia. Más preocupante aún: un tercio prefiere hablar de temas serios con bots en lugar de humanos, y una cuarta parte les comparte información personal.

Esto es especialmente alarmante porque ya hay casos reales que sirven de advertencia. En octubre, investigadores alertaron que dos apps de compañía (Chattee Chat y GiMe Chat) expusieron información altamente sensible de sus usuarios. ¿La causa? Una mala configuración en un broker de Kafka dejó sin controles de acceso los sistemas de transmisión y entrega de contenido. Como resultado, cualquiera pudo acceder a más de 600,000 fotos enviadas por usuarios, direcciones IP y millones de conversaciones íntimas pertenecientes a más de 400,000 personas.

Los riesgos de confiar en un bot

Los ciberdelincuentes ven aquí una oportunidad. La información que compartes en conversaciones emocionales con tu IA, puede ser usada para chantaje. Fotos, videos y audios podrían terminar en herramientas de deepfake para extorsión sexual (sextorsion), o tus datos personales podrían venderse en la dark web para fraudes de identidad. Incluso podrían robar datos de tarjetas si la app almacena información para compras internas. Según Cybernews, algunos usuarios gastan miles de dólares en estas apps.

La prioridad de los desarrolladores suele ser generar ingresos, no proteger tu seguridad. Esto abre la puerta a vulnerabilidades y errores de configuración que los atacantes pueden explotar. También podrían crear apps falsas que roben información o manipulen a los usuarios para obtener datos sensibles.

Aunque la app sea “segura”, puede ser un riesgo para tu privacidad. Muchos desarrolladores recopilan la mayor cantidad posible de datos para venderlos a anunciantes. Políticas poco claras dificultan saber cómo se protege tu información. Además, tus conversaciones podrían usarse para entrenar el modelo, lo que aumenta los riesgos.

Cómo mantener segura a tu familia

Ya sea que tú uses una app de chatbot con IA o te preocupe que lo hagan tus hijos, el consejo es el mismo: asume que la IA no tiene barreras sólidas de seguridad ni privacidad. No compartas información personal ni financiera que no darías a un desconocido, incluyendo fotos o videos comprometedores.

Lo ideal es que, si tú o tus hijos quieren probar una de estas apps, investiguen antes cuáles ofrecen mejores medidas de seguridad y privacidad. Esto implica leer las políticas de privacidad para entender cómo usan y/o comparten tus datos. Evita cualquier app que no sea clara sobre el uso previsto o que admita vender datos de usuarios.

Una vez que elijas la app, activa funciones de seguridad como la autenticación en dos pasos. Esto ayuda a prevenir robos de cuenta mediante contraseñas robadas o forzadas. También revisa las configuraciones de privacidad para aumentar la protección. Por ejemplo, puede haber una opción para desactivar que tus conversaciones se usen para entrenar el modelo.

Si te preocupa la seguridad, privacidad o el impacto psicológico en tus hijos, inicia una conversación con ellos para saber más. Recuérdales los riesgos de compartir demasiado y enfatiza que estas apps son herramientas para generar ganancias, no para protegerlos. Si notas efectos negativos, considera limitar el tiempo de uso con controles parentales.

Por supuesto, no permitas apps que no tengan verificación de edad ni políticas de moderación adecuadas para proteger a los menores.

¿Qué sigue?

Falta ver si los reguladores impondrán reglas más estrictas. Hoy, los bots románticos operan en una zona gris, aunque la próxima Ley de Equidad Digital en la Unión Europea, por ejemplo, podría prohibir experiencias excesivamente adictivas y personalizadas. 

Hasta que desarrolladores y reguladores se pongan al día, no consideres a estos chatbots como confidentes ni apoyo emocional.