Dans le film Her, le personnage principal tombe amoureux d’une intelligence artificielle très avancée, dans une relation qui ne peut que mal finir. En 2013, à la sortie du film, cette idée paraissait clairement futuriste. Pourtant, avec l’essor de l’IA générative et des grands modèles de langage, ce scénario semble désormais beaucoup moins irréaliste. Aujourd’hui, les applications de type « compagnon » se multiplient rapidement. Malgré leur popularité, ces relations avec des bots IA comportent forcément des risques. Comment être certain que vos données personnelles ne seront pas transmises à des entreprises tierces, ou récupérées par des pirates ? Se poser ce type de questions est essentiel pour décider si le jeu en vaut réellement la chandelle.
À la recherche de l’amour… numérique
Les applications de compagnonnage répondent à une demande croissante. Ces petits amis ou petites amies virtuels s’appuient sur les LLM et le traitement du langage naturel pour converser de manière fluide, personnalisée et parfois émotionnelle. Des services tels que Character.AI, Nomi ou Replika comblent des besoins psychologiques, voire romantiques, chez certains utilisateurs. On comprend aisément pourquoi ce secteur attire autant de développeurs.
Les grandes plateformes commencent elles aussi à s’y intéresser. OpenAI a récemment indiqué vouloir proposer prochainement du contenu érotique réservé à des adultes vérifiés, et pourrait autoriser la création d’applications « pour public averti » reposant sur ChatGPT. De son côté, la société xAI d’Elon Musk a également introduit des compagnons IA au caractère séducteur dans son application Grok.
Une étude parue en juillet 2025 indique que près de 75 % des adolescents ont déjà testé ce type de compagnon IA, et qu’environ la moitié y a recours fréquemment. Plus alarmant encore : un adolescent sur trois préfère discuter sérieusement avec un bot plutôt qu’avec une personne réelle, et un sur quatre lui confie des données personnelles.
Cette tendance est d’autant plus inquiétante que des incidents commencent à être signalés. En octobre, des chercheurs ont notamment alerté sur deux applications de compagnons IA (Chattee Chat et GiMe Chat) qui avaient exposé, sans le vouloir, des données extrêmement sensibles. En cause, une mauvaise configuration d’un système Kafka, qui laissait les flux de données accessibles sans contrôle. Résultat, n’importe qui pouvait consulter plus de 600 000 photos envoyées par les utilisateurs, leurs adresses IP, ainsi que des millions de conversations intimes concernant plus de 400 000 personnes.
Les risques de « sortir » avec un bot
Pour certains individus mal intentionnés, ces applications représentent une nouvelle opportunité de profit. Les informations partagées dans un contexte intime peuvent facilement servir au chantage. Des photos, vidéos ou enregistrements audio pourraient par exemple être détournés via des deepfakes et alimenter des arnaques de sextorsion. D’autres données personnelles peuvent aussi être revendues sur le dark web afin de faciliter des usurpations d’identité. Et si l’application est mal protégée, des pirates pourraient même accéder aux informations bancaires liées aux achats intégrés. D’après Cybernews, certains utilisateurs dépensent parfois des sommes considérables, allant jusqu’à plusieurs milliers de dollars.
Beaucoup de développeurs privilégient la rentabilité au détriment de la cybersécurité. Cela ouvre la porte à des failles ou à des erreurs de configuration que des attaquants peuvent exploiter. Certains pourraient même créer de fausses applications de compagnons IA, très convaincantes, mais contenant des logiciels malveillants destinés à voler des données. D’autres pourraient manipuler les utilisateurs afin de leur soutirer des informations sensibles, ensuite utilisées pour frauder ou faire pression sur eux.
Même lorsque l’application semble bien protégée, la confidentialité reste un enjeu majeur. Certains éditeurs accumulent un maximum de données sur leurs utilisateurs afin de les monétiser, notamment en les revendant à des annonceurs. De plus, des politiques de confidentialité peu claires rendent souvent difficile de savoir ce qui est réellement collecté et comment ces données sont sécurisées. Il est aussi possible que vos échanges servent à entraîner ou améliorer le modèle d’IA utilisé, ce qui renforce encore les risques en matière de vie privée et de sécurité.
Comment se protéger ?
Que vous utilisiez vous-même ce type d’application ou que vous craigniez que vos enfants le fassent, la règle est simple : partez du principe que l’IA n’offre aucune garantie de sécurité ni de confidentialité. Ne lui confiez jamais d’informations personnelles ou financières que vous ne donneriez pas à un inconnu. Cela inclut aussi des photos ou vidéos pouvant être compromettantes.
Idéalement, avant d’installer ce type d’application, prenez le temps de vous renseigner pour choisir celles qui offrent les meilleures garanties en matière de sécurité et de respect de la vie privée. Cela passe notamment par la lecture des politiques de confidentialité, afin de comprendre comment vos données sont utilisées ou partagées. Écartez les services qui restent flous sur leurs pratiques, ou qui reconnaissent vendre les informations de leurs utilisateurs.
Une fois l’application choisie, activez les fonctions de protection disponibles, comme l’authentification à deux facteurs. Cela limite les risques de piratage, même si votre mot de passe est volé ou deviné. Pensez aussi à consulter les réglages de confidentialité afin de renforcer votre protection : certaines applications proposent par exemple de refuser l’enregistrement des conversations pour entraîner leurs modèles.
Si vous êtes préoccupé par la sécurité, la confidentialité ou l’impact psychologique de ces outils sur vos enfants, le mieux est d’en parler avec eux. Expliquez-leur les dangers du partage excessif et rappelez-leur que ces applications sont avant tout conçues pour générer de l’argent, pas pour protéger leurs utilisateurs. Si vous redoutez des effets négatifs, il peut être utile de limiter le temps passé sur les écrans, éventuellement via des contrôles parentaux ou des applications de supervision.
Enfin, il est évident qu’il ne faut pas laisser vos enfants utiliser une application de compagnon IA si la vérification de l’âge et la modération du contenu ne sont pas suffisamment strictes.
On ne sait pas encore si les autorités mettront en place des règles plus strictes pour encadrer ces pratiques. Pour l’instant, les compagnons romantiques basés sur l’IA évoluent dans une zone juridique floue. Toutefois, une future législation européenne sur l’équité numérique pourrait limiter, voire interdire, des expériences jugées trop addictives ou excessivement personnalisées.
Jusqu'à ce que les développeurs et régulateurs rattrapent leur retard, il vaut peut-être mieux ne pas considérer les compagnons IA comme des confidents ou des béquilles émotionnelles. En attendant que les développeurs et les régulateurs comblent leur retard, il est sans doute plus prudent de ne pas voir ces compagnons IA comme des confidents fiables ou des soutiens émotionnels sur lesquels s’appuyer.






