Meta change qui gère la modération du contenu en Afrique de l’Est. Cela ne change pas l’état lamentable de la façon dont les médias sociaux restent aseptisés.


Photo de Mark Zuckerberg assis pensif lors d'une conférence.

Meta met fin à son partenariat avec la société de sous-traitance controversée chargée de modérer les contenus graphiques en Afrique de l’Est. Les rapports d’initiés montrent que son nouveau partenaire n’est pas meilleur.Jonathan Ernst/Reuters

Facebook a confirmé mardi mettre fin à son contrat avec Sama, la société de sous-traitance chargée de modérer les contenus graphiques en Afrique de l’Est.

La nouvelle, rapportée pour la première fois par Time Magazine, fait suite à une action en justice intentée par un ancien modérateur de contenu employé par Sama à Nairobi, au Kenya, alléguant de graves traumatismes mentaux en raison de leur travail aux côtés d’autres violations du travail.

Selon Foxglove Legal, une organisation juridique à but non lucratif qui enquête sur les entreprises Big Tech, Majorel, une société d’externalisation européenne de 2,2 milliards de dollars, reprendra le contrat. Mais Foxglove a déclaré que Majorel n’était pas meilleur que Sama dans son traitement des modérateurs – ce que montrent également les reportages d’Insider de l’été dernier enquêtant sur le traitement odieux des modérateurs de contenu de Majorel travaillant pour la société mère de TikTok, ByteDance au Maroc.

C’est un signe de la difficulté de l’industrie de la modération de contenu. Malgré plusieurs poursuites de ce type contre des sociétés de médias sociaux telles que Facebook, Youtube, TikTok et Reddit du monde entier, les travailleurs sont encore souvent contraints de travailler plusieurs heures par quarts pour modérer certains des contenus les plus graphiques sur Internet, du matériel pédopornographique aux vidéos. d’accidents horribles et de décapitations, souvent avec très peu de protections en place pour leur bien-être mental.

En août, Insider a enquêté sur les conditions de travail des modérateurs de contenu de TikTok travaillant pour Majorel au Maroc – la plaque tournante de l’opération de modération de contenu de ByteDance au Moyen-Orient et en Afrique du Nord. Les travailleurs nous ont dit qu’ils travaillaient souvent sur des quarts de 12 heures, où ils signalaient des vidéos de maltraitance d’animaux, de violence sexuelle et d’autres formes de contenu horrible. Ils ont eu moins de pauses que leurs homologues américains et ont déclaré que les « conseillers en bien-être » de l’entreprise étaient de peu d’aide.

Les entreprises de médias sociaux prétendent utiliser des algorithmes sophistiqués qui aident à nettoyer les flux des gens, mais cela masque la sombre réalité du fonctionnement de presque toutes les entreprises de médias sociaux. Dans les coulisses, une main-d’œuvre mondiale de dizaines de milliers de personnes filtre les contenus répugnants afin qu’ils ne se retrouvent pas devant vos yeux.

Ces dernières années, Facebook a réglé des poursuites avec des modérateurs qui ont signalé un SSPT à la suite de leur travail pour l’entreprise et ont promis d’apporter des modifications à ses conditions de travail. Mais comme Vittoria Elliott et moi l’avons signalé en 2020, les concessions relativement maigres parviennent rarement aux travailleurs en Inde, aux Philippines ou au Kenya.

Des experts comme Foxglove Legal ont fait appel à des sociétés de médias sociaux comme Meta pour qu’elles intègrent leur personnel mondial de modération de contenu. C’est peut-être le seul moyen de s’assurer que la gestion des pires éléments des médias sociaux est prise en charge par ceux qui sont vraiment responsables envers l’entreprise et ses utilisateurs. Jusque-là, des sous-traitants comme ceux de Sama ou de Marjorel ou des dizaines d’autres entreprises d’externalisation en paieront le prix.

Lire l’article original sur Business Insider

Laisser un commentaire