La inteligencia artificial sigue en pleno auge y su crecimiento parecería no tener un techo definido. Pero en medio de esta vorágine también es necesario prestar atención y poner el foco en dos palabras tan importantes como sensibles: la seguridad y la privacidad.

¿Cómo juegan estos dos conceptos en la realidad que vive hoy la IA? ¿Los usuarios están al tanto de los riesgos a los que pueden estar expuestos? ¿Hay manera de tomar cartas en el asunto para disfrutar de todos los beneficios de esta nueva tecnología sin exponernos de más?

A continuación, exploramos 7 hábitos de seguridad y privacidad para que puedas disfrutar de la Inteligencia Artificial, sin exponer tus datos e información.

1 - Configurar correctamente la seguridad y privacidad

Antes de compartir información en cualquier herramienta de Inteligencia Artificial, se debe tomar conocimiento de todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro.

¿Otro tip? Revisar periódicamente términos y políticas de la aplicación, por cualquier cambio o nueva opción de seguridad y privacidad que esté disponible.

2 - Evitar compartir datos personales y sensibles

Una de las medidas más importantes que puedes implementar es no ingresar información personal, como por ejemplo contraseñas o datos bancarios, en cualquier chat de IA.

En concreto, estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos sean almacenados y expuestos en el futuro.

En referencia a este punto, un informe realizado por Microsoft señala que son muchas las organizaciones que carecen de control sobre las aplicaciones de IA que se utilizan en su entorno, quiénes las emplean y qué datos se comparten. Esto, obviamente, las expone a incidentes críticos.

Lectura recomendada:
Qué datos almacena nuestra cuenta de ChatGPT y cuáles son los peligros

3 - Proteger las cuentas

Para proteger tu cuenta de ChatGPT o de cualquier otra herramienta de Inteligencia Artificial, es muy importante utilizar contraseñas robustas y, de ser posible, también agregar una capa de protección extra activando el doble factor de autenticación (2FA) cuando estuviera disponible.

El acceso a una cuenta de ChatGPT, por ejemplo, podría exponer al historial de conversaciones y la información almacenada en estos chats. Esta información podría luego utilizarse para realizar ataques de ingeniería social sofisticados basados en información de la cuenta o incluso para comercializar la información.

4 - Desactivar el historial de los chats

Si bien las herramientas de Inteligencia Artificial habitualmente mantienen almacenados los historiales de conversaciones, existen algunas que permiten elegir y desactivar esta opción. Entonces, si deseas tener mayor privacidad, te invitamos a explorar esta alternativa. Además, estarías a salvo en caso de alguna posible filtración, como la ocurrida en 2023 con ChatGPT.

5 - No confiar completamente en las respuestas recibidas

Es importante remarcar que los modelos de IA pueden entregar información certera, pero también generar respuestas incorrectas o sesgadas. Como usuario, y para garantizar nuestra seguridad (sobre todo en temas sensibles como los legales, financieros o médicos) siempre es aconsejable verificar y contrastar la información obtenida con fuentes oficiales.

Por otra parte, los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas. De esta manera un atacante podría inducir a la IA a responder brindando instrucciones erróneas, proporcionar información falsa o extraer datos sensibles de una conversación.

6 - Prestar atención a los enlaces y archivos generados

Algunas herramientas de IA pueden ser manipuladas mediante la ya mencionada prompt injection o el envenenamiento de datos para generar enlaces, archivos o códigos con vulnerabilidades o contenido malicioso. Además, es posible que una IA incluya enlaces maliciosos que provienen de fuentes indexadas, que podrían no haber sido verificadas adecuadamente. En estos casos, un cibercriminal podría aprovechar estas vulnerabilidades para redirigir a un usuario a un sitio web falso o fraudulento con el fin de realizar ataques de phishing o distribuir malware.

¿La solución? En primer término, verificar la dirección compartida por la IA antes de hacer clic, y también analizar los archivos generados con una solución de seguridad antes de descargarlos.

7 - Tener cuidado con la instalación de extensiones y Plugins

Existen una infinidad de extensiones y complementos para el navegador que ofrecen funcionalidades basadas en IA. También plugins para gestores de contenido y otras plataformas. La descarga de fuentes no confiables puede aumentar el riesgo de infección con programas maliciosos.

Conclusión

Como usuarios, y con el objetivo de disfrutar de todo el potencial de la inteligencia artificial, es importante contemplar el papel que juegan tanto la seguridad como la privacidad.

Una correcta gestión de ambos permitirá utilizar esta nueva tecnología, pero sin poner en riesgo la información ni lo que cada persona elija mantener para su intimidad. Para las empresas, la adopción de herramientas de Inteligencia Artificial supone el desafío de integrarlas de manera segura para reducir los riesgos que representa como superficie de ataque.

La creación de políticas o normas de control y uso se tornan cada vez más importantes y necesarias para prevenir riesgos, así como la capacitación continua para educar y concientizar sobre el uso y riesgos que conlleva el uso de herramientas de IA. Iniciativas como la de MITRE, que promueve el intercambio seguro de incidentes relacionados con IA, demuestran la importancia de la colaboración y el aprendizaje continuo para protegernos frente a las amenazas emergentes en este campo.

EW WLS banner ES