Réseaux sociaux: les algorithmes d’Instagram facilitent la vente de contenus pédopornographiques

Selon une enquête du Wall Street Journal, publiée le mercredi 7 juin, l’algorithme de recommandation de contenus d'Instagram rend plus aisée la diffusion de contenus pédopornographiques.

Instagram, filiale de Meta, est la principale plateforme utilisée par des réseaux de pédophiles pour promouvoir et vendre des contenus montrant des abus sexuels sur des mineurs, selon un rapport de l’Université de Stanford et du Wall Street Journal.

Le 08/06/2023 à 07h31

fSale temps pour Instagram. En perte de vitesse face à son rival TikTok, le réseau social est aujourd’hui pointé du doigt par un rapport de l’Université de Stanford et du Wall Street Journal, qui affirme que la filiale de Meta est la principale plateforme utilisée par des réseaux de pédophiles pour diffuser des contenus à caractère pédopornographique.

«De larges réseaux de comptes, qui donnent l’apparence d’être opérés par des mineurs, promeuvent ouvertement la vente de contenus» pédopornographiques, ont indiqué mercredi des chercheurs du Cyber Policy Center de la prestigieuse université de la Silicon Valley.

«Instagram est actuellement la plus importante plateforme pour ces réseaux grâce à des fonctionnalités telles que les algorithmes de recommandation de contenus et la messagerie qui aide les vendeurs à entrer en contact avec les acheteurs», ont-ils ajouté.

Des mots-clefs explicites

Et ni les pédophiles ni ces réseaux n’ont besoin de faire preuve de beaucoup d’ingénuité. D’après le WSJ, une simple recherche avec des mots-clefs explicites débouche sur des comptes qui utilisent ces termes pour faire la publicité de contenus montrant des abus sexuels sur des mineurs.

Souvent, ces profils «assurent être pilotés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels avec des mots sans équivoque», détaille l’article. Les comptes ne disent pas directement qu’ils vendent ces images, mais ils comportent des menus avec des options, y compris celle de demander des actes sexuels spécifiques, dans certains cas.

Les chercheurs de Stanford ont aussi repéré des offres pour des vidéos avec de la bestialité et de l’automutilation. «À un certain prix, les enfants sont disponibles pour des “rencontres” en personne», continue l’article.

Le rapport souligne le rôle joué par les algorithmes du populaire réseau social: un compte test créé par le quotidien économique s’est vu «inondé de contenus qui sexualisent les enfants» après avoir cliqué sur quelques recommandations de ce genre.

Des milliers de hashtags bloqués

D’après le WSJ, le géant des réseaux sociaux a reconnu qu’il y avait des problèmes au sein de ses services de sécurité et a dit avoir créé un «groupe de travail» pour régler le problème. «Nous recherchons en permanence des moyens de nous défendre activement contre ce comportement», a réagi l’entreprise, assurant que des milliers de hashtags illégaux ont été bloqués depuis la publication de l’enquête.

En mars dernier, des fonds de pension et d’investissement ont porté plainte contre Meta pour avoir «fermé les yeux» sur le trafic d’être humains et la pédocriminalité sur ses plateformes. Instagram est aussi régulièrement accusé par des associations et autorités de ne pas suffisamment protéger les enfants face aux risques de harcèlement, d’addiction et de problèmes d’images de soi.

Par Le360 (avec AFP)
Le 08/06/2023 à 07h31