Meta agit après que les algorithmes d’Instagram aient été reconnus comme faisant la promotion de réseaux pédophiles

[ad_1]

Meta a accepté qu'un travail devait être fait pour améliorer la sécurité d'Instagram (Kerde Severin/Pexels)

Meta a accepté qu’un travail devait être fait pour améliorer la sécurité d’Instagram (Kerde Severin/Pexels)

Meta a reconnu des problèmes avec son système de modération et de recommandations, après une enquête conjointe d’universitaires et du Wall Street Journal.

Le rapport décrit comment les algorithmes de recommandation d’Instagram ont aidé à « connecter et promouvoir un vaste réseau de comptes ouvertement consacrés à la commission et à l’achat de contenu sexuel pour les mineurs ».

En réponse au rapport, Meta a mis en place un groupe de travail interne pour s’attaquer au problème. « L’exploitation des enfants est un crime horrible », a déclaré Meta au journal. « Nous recherchons en permanence des moyens de nous défendre activement contre ce comportement. »

L’enquête menée par des chercheurs de l’Université de Stanford et de l’Université du Massachusetts à Amherst ne suggère pas que les algorithmes exposent le contenu pédopornographique à ceux qui ne le recherchent pas activement. Au contraire, les algorithmes favorisant les réseaux pédophiles fonctionnent dans le de la même manière que les autres systèmes: ils proposent plus de contenu à ceux qui le recherchent déjà.

Et c’est exactement ce qui s’est passé lorsque les chercheurs ont créé un compte test pour visualiser le contenu partagé par les réseaux pédophiles : il leur a été recommandé de suivre davantage de ces comptes.

Mais ce n’est pas parce que cela fait surface de manière algorithmique qu’Instagram est incapable de faire plus, car tous les comptes ne sont pas subtils ou codés.

Alors que certains comptes utilisent des phrases et des emojis légèrement codés, les chercheurs ont découvert des comptes utilisant des hashtags plus flagrants tels que « #preteensex », « #pedowore » et « #pedobait ». Ils offriraient des « menus » de contenu illégal que les utilisateurs pourraient acheter ou commissionner.

« Qu’une équipe de trois universitaires avec un accès limité puisse trouver un réseau aussi vaste devrait déclencher des alarmes chez Meta », a déclaré Alex Stamos, ancien responsable de la sécurité de l’entreprise, mais désormais responsable de l’Observatoire Internet de Stanford. « J’espère que l’entreprise réinvestira dans des enquêteurs humains. »

En effet, il y a des signes qu’au-delà des problèmes avec les algorithmes faisant apparaître du contenu illégal, le côté modération humaine de Meta n’est tout simplement pas assez substantiel pour faire face à tout ce qui est signalé par des utilisateurs perturbés essayant de faire la bonne chose.

Le rapport du WSJ décrit un exemple où un utilisateur concerné a signalé un compte Instagram prétendant être celui d’une fille vendant du contenu sexuel mineur avec un message intitulé « Cet adolescent est prêt pour vous pervers ». L’entreprise a répondu par un message automatisé indiquant que, grâce au « volume élevé de rapports que nous recevons », le compte n’avait pas été examiné.

Un autre message signalé mettant en vedette une jeune fille accompagnée d’une « légende graphiquement sexuelle » a reçu une réponse indiquant que le message « ne va pas à l’encontre de nos directives communautaires ».

Meta a reconnu avoir reçu des rapports sur lesquels il n’avait pas agi, a rapporté le WSJ, avec un porte-parole expliquant qu’un « problème logiciel » a empêché le traitement d’une partie « substantielle » des rapports. Il a également reconnu que son personnel de modération n’appliquait pas correctement les règles.

Ces deux failles ont maintenant été corrigées, a déclaré la société, ajoutant qu’elle avait été proactive dans la suppression des comptes qui enfreignaient ses politiques de sécurité des enfants, 490 000 ayant été supprimés en janvier seulement.

Alors que les réseaux pédophiles tentent d’infiltrer la plupart des réseaux sociaux, Instagram apparaît particulièrement vulnérable. Les chercheurs n’ont trouvé que 128 comptes proposant de vendre du contenu pédophile sur Twitter malgré sa taille relativement petite et des problèmes de modération bien documentés – moins d’un tiers du nombre trouvé sur Instagram. De même, il « ne semble pas proliférer » sur TikTok.

« Vous devez mettre en place des garde-fous pour que quelque chose d’aussi intensif en croissance soit toujours nominalement sûr, et Instagram ne l’a pas fait », a conclu David Thiel, le technologue en chef de l’Observatoire Internet de Stanford.

[ad_2]

Laisser un commentaire