Facebook annonce deux nouveaux outils pour aider à lutter contre les contenus d'abus et d'exploitation des enfants sur sa plateforme et ses applications. Alors que l'un des outils vise à freiner le partage potentiellement malveillant de contenus exploiteurs, l'autre porte sur son partage non malveillant.

Le premier est un pop-up qui sera montré aux utilisateurs qui recherchent sur les applications de Facebook des termes qui sont généralement associés à l'exploitation des enfants. « Le pop-up offre des moyens d'obtenir l'aide d'organisations de détournement de délinquants et de partager des informations sur les conséquences de la visualisation de contenus illégaux », explique Antigone Davis, responsable mondiale de la sécurité sur Facebook, dans un blog présentant les nouveaux outils.

Le second outil est une alerte de sécurité qui apparaîtra aux personnes qui ont partagé des contenus viraux et des mêmes exploitant des enfants. L'alerte informera l'utilisateur des préjudices que le partage de tels contenus pourrait entraîner et ajoutera également un avertissement sur les ramifications juridiques du partage de tels matériels.

« Nous partageons cette alerte de sécurité en plus de retirer le contenu, de le mettre en banque et de le signaler au NCMEC. Les comptes qui font la promotion de ce contenu seront supprimés. Nous utilisons les informations fournies par cette alerte de sécurité pour nous aider à identifier les signaux comportementaux de ceux qui pourraient être exposés au risque de partager ce matériel, afin que nous puissions également les informer des raisons pour lesquelles il est dangereux et les encourager à ne pas le partager sur quelque surface que ce soit - publique ou privée », précise Davis.

« Alors que les criminels exploitent les médias sociaux et les réseaux sociaux pour commettre des crimes impliquant du matériel pédopornographique, le trafic sexuel d'un mineur et le tourisme sexuel impliquant des enfants, l'utilisation de ces plateformes pour faciliter les enlèvements d'enfants est moins connue », souligne le Bureau.

LECTURE COMPLÉMENTAIRE: Jumelage familial de TikTok: Supervisez le contenu de vos enfants et plus

Facebook a travaillé avec des experts en matière d'exploitation des enfants, notamment le Centre national des enfants disparus et exploités (NCMEC) des États-Unis, afin de mettre au point une taxonomie fondée sur la recherche pour classer l'intention d'une personne derrière le partage de tels contenus. Après avoir évalué 150 comptes signalés au NCMEC pour avoir publié du contenu exploitant des enfants, Facebook a constaté qu'environ plus de 75 % des personnes ne le faisaient pas avec une intention malveillante. Ils ont plutôt tenté de provoquer l'indignation ou de partager le contenu dans la mauvaise humeur. Toutefois, la société a ajouté que ces conclusions ne devaient pas être considérées comme une « mesure précise » du portrait global de la sécurité des enfants.

Le réseau social a également modifié sa politique de sécurité des enfants pour préciser qu'il supprimera les profils, pages, groupes et comptes Instagram de Facebook qui partagent des images innocentes d'enfants ou qui sont accompagnés de commentaires, de hashtags ou de légendes comportant des signes d'affection inappropriés ou des observations sur les enfants figurant sur les photos.

L’entreprise explique : « Nous avons toujours supprimé les contenus qui sexualisent explicitement les enfants, mais les contenus qui ne sont pas explicites et qui ne représentent pas la nudité des enfants sont plus difficiles à définir. Dans le cadre de cette nouvelle politique, si les images seules ne peuvent pas enfreindre nos règles, le texte qui les accompagne peut nous aider à mieux déterminer si le contenu sexualise les enfants et si le profil, la page, le groupe ou le compte associé doit être supprimé. »

En outre, afin de simplifier le signalement des contenus qui enfreignent les politiques de Facebook en matière d'exploitation des enfants, le géant des médias sociaux a ajouté l'option « implique un enfant » dans la catégorie « Nudité et activité sexuelle » de son formulaire de signalement.

Les médias sociaux ont redoublé d'efforts pour réduire les contenus pédopornographiques et ont déployé divers outils et mesures pour atteindre cet objectif. Par exemple, l'année dernière, Facebook a élargi le contrôle parental pour Messenger Kids tandis que TikTok a introduit la fonction de jumelage familial.

Pour en savoir plus sur les dangers auxquels sont confrontés les enfants en ligne et sur la manière dont la technologie peut aider, consultez le site Safer Kids Online.

LECTURE COMPLÉMENTAIRE : Comment aborder la sécurité sur les médias sociaux avec vos jeunes?