Facebook déploie un nouvel ensemble de règles visant à freiner la propagation des médias manipulés, alors que le spectre de vidéos deepfake très convaincantes se profile à l'horizon, et pas seulement des élections présidentielles américaines.

Une annonce faite par la Vice-présidente de la gestion de la politique mondiale de la plateforme, Monika Bickert, révèle que Facebook déploie une approche sur plusieurs fronts pour faire face à la menace croissante des médias manipulés qui sont créés pour répandre la désinformation et influencer l'opinion publique.

D'une part, Facebook va supprimer les contenus manipulés qui entrent dans ces deux cases :

  • il a été « édité ou synthétisé - au-delà des ajustements pour la clarté ou la qualité - d'une manière qui n'est pas apparente pour une personne moyenne et qui pourrait tromper quelqu'un en lui faisant croire qu'un sujet de la vidéo a dit des mots qu'il n'a pas vraiment prononcés », et
  • il est « le produit de l'intelligence artificielle ou de l'apprentissage machine qui fusionne, remplace ou superpose un contenu sur une vidéo, le faisant apparaître comme authentique ».

Il s'ensuit que la politique plus stricte s'applique à la technologie deepfakes, qui est un exemple de la manière dont les algorithmes d'apprentissage machine peuvent être déployés à des fins malveillantes. [Les Deepfakes ont également été désignés par les experts d'ESET comme l'une des Tendances de la cybersécurité à surveiller en 2020].

C'est une bonne nouvelle. Notons cependant que cette interdiction ne s'étendra pas aux autres types de médias trafiqués. Plus précisément, le réseau social ne bannira pas « les vidéos qui ont été éditées uniquement pour omettre ou changer l'ordre des mots » ou les contenus modifiés à des fins de parodie et de satire.

Une question qui peut parfois se poser est la suivante : où tracer la ligne entre la tromperie et le contenu humoristique? C

Ceci dit, Facebook s'engage à ne pas rester les bras croisés lorsqu'il s'agit de médias qui sont trafiqués, y compris en utilisant des méthodes moins avancées, et qui ne répondent pas aux critères de retrait. Ces contenus peuvent toujours faire l'objet d'une vérification indépendante des faits et être réglementés en fin de compte, pour ainsi dire.

« Si une photo ou une vidéo est jugée fausse ou partiellement fausse par un vérificateur de faits, nous réduisons considérablement sa distribution dans le fil d'actualité et la rejetons si elle est diffusée comme une publicité. Et surtout, les personnes qui la voient, qui essaient de la partager ou qui l'ont déjà fait, verront des avertissements les avertissant qu'elle est fausse », a déclaré M. Bickert.

Cette dernière fait valoir que le fait de retirer de telles vidéos n'empêcherait pas les gens de les regarder ailleurs - tout en ignorant que les vidéos sont fausses. En laissant ces publications et en les étiquetant plutôt comme fausses, les gens obtiendront des informations cruciales et un contexte, explique-t-elle.

Jake Moore, spécialiste de la sécurité d'ESET, a reconnu la démarche de Facebook mais a également noté que les interdictions ne peuvent pas aller plus loin et que nous devons être plus perspicaces, ainsi que prêts pour ce qui est à venir. « Nous avons non seulement besoin d'un meilleur logiciel pour reconnaître ces vidéos manipulées numériquement, mais nous devons aussi faire prendre conscience aux gens que nous nous dirigeons vers une époque où nous ne devrions pas toujours croire ce que nous voyons », explique Moore.