IA : les preuves de crimes de guerre effacées par les plateformes de médias sociaux

[ad_1]

  • Par Jack Goodman et Maria Korenyuk
  • Équipe mondiale de désinformation de la BBC

Légende,

Les vidéos ukrainiennes d’Ihor Zakharenko ont été rapidement supprimées

Les preuves d’atteintes potentielles aux droits de l’homme peuvent être perdues après avoir été supprimées par des entreprises technologiques, a constaté la BBC.

Les plateformes suppriment les vidéos graphiques, souvent en utilisant l’intelligence artificielle – mais les images qui peuvent aider les poursuites peuvent être supprimées sans être archivées.

Meta et YouTube affirment qu’ils visent à équilibrer leurs devoirs de témoignage et de protection des utilisateurs contre les contenus préjudiciables.

Mais Alan Rusbridger, qui siège au conseil de surveillance de Meta, affirme que l’industrie a été « trop ​​prudente » dans sa modération.

Les plateformes disent qu’elles ont des exemptions pour le matériel graphique lorsque cela est dans l’intérêt public – mais lorsque la BBC a tenté de télécharger des images documentant des attaques contre des civils en Ukraine, elles ont été rapidement supprimées.

L’intelligence artificielle (IA) peut supprimer les contenus nuisibles et illégaux à grande échelle. Cependant, lorsqu’il s’agit de modérer les images violentes des guerres, les machines manquent de nuances pour identifier les violations des droits de l’homme.

Les groupes de défense des droits de l’homme affirment qu’il est urgent que les entreprises de médias sociaux empêchent ces informations de disparaître.

« Vous pouvez voir pourquoi ils ont développé et formé leurs machines, dès qu’ils voient quelque chose qui semble difficile ou traumatisant, pour le démonter », a déclaré M. Rusbridger à la BBC. Le Meta Oversight Board auquel il siège a été créé par Mark Zuckerberg et est connu comme une sorte de « cour suprême » indépendante pour l’entreprise, propriétaire de Facebook et d’Instagram.

« Je pense que la question suivante pour eux est de savoir comment développer la machinerie, qu’elle soit humaine ou IA, pour ensuite prendre des décisions plus raisonnables », ajoute M. Rusbridger, ancien rédacteur en chef du Guardian.

Personne ne nierait le droit des entreprises technologiques à contrôler le contenu, déclare l’ambassadrice américaine pour la justice pénale mondiale Beth Van Schaak : « Je pense que le problème se produit lorsque ces informations disparaissent soudainement. »

Ihor Zakharenko, un ancien journaliste de voyage, a rencontré cela en Ukraine. Depuis l’invasion russe, il documente les attaques contre les civils.

La BBC l’a rencontré dans une banlieue de Kiev où, il y a un an, des hommes, des femmes et des enfants avaient été abattus par les troupes russes alors qu’ils tentaient de fuir l’occupation.

Il a filmé les corps – au moins 17 d’entre eux – et des voitures incendiées.

Légende,

Des vidéos documentant les attaques russes contre des civils ont été supprimées en quelques minutes

Il voulait publier les vidéos en ligne pour que le monde voie ce qui s’était passé et pour contrer le récit du Kremlin. Mais lorsqu’il les a téléchargées sur Facebook et Instagram, elles ont été rapidement supprimées.

« Les Russes eux-mêmes disaient que c’étaient des faux, [that] ils n’ont pas touché les civils, ils n’ont combattu qu’avec l’armée ukrainienne », a déclaré Ihor.

Nous avons téléchargé les images d’Ihor sur Instagram et YouTube en utilisant des comptes factices.

Instagram a supprimé trois des quatre vidéos en une minute.

Au début, YouTube a appliqué des restrictions d’âge aux trois mêmes, mais 10 minutes plus tard, ils les ont tous supprimés.

Nous avons essayé à nouveau – mais ils n’ont pas réussi à télécharger complètement. Un appel pour restaurer les vidéos au motif qu’elles contenaient des preuves de crimes de guerre a été rejeté.

Les atrocités de la guerre sont documentées sur les réseaux sociaux. Ce matériel peut être utilisé comme preuve pour aider à poursuivre les crimes de guerre. Mais la BBC s’est entretenue avec des personnes touchées par un conflit violent qui ont vu les principales sociétés de médias sociaux supprimer ce contenu.

YouTube et Meta affirment qu’en vertu de leurs exemptions pour les images de guerre graphiques dans l’intérêt public, le contenu qui serait normalement supprimé peut être conservé en ligne avec une visualisation réservée aux adultes. Mais notre expérience avec les vidéos d’Ihor suggère le contraire.

Meta dit qu’il répond « aux demandes légales valides des forces de l’ordre du monde entier » et « nous continuons d’explorer d’autres voies pour soutenir les processus de responsabilité internationaux… conformément à nos obligations légales et de confidentialité ».

YouTube affirme que bien qu’il existe des exemptions pour le contenu graphique dans l’intérêt public, la plate-forme n’est pas une archive. Il dit : « Les organisations de défense des droits de l’homme ; les militants, les défenseurs des droits de l’homme, les chercheurs, les journalistes citoyens et autres documentant des violations des droits de l’homme (ou d’autres crimes potentiels) devraient observer les meilleures pratiques pour sécuriser et préserver leur contenu. »

La BBC s’est également entretenue avec Imad, qui possédait une pharmacie à Alep, en Syrie, jusqu’à ce qu’une bombe baril du gouvernement syrien atterrisse à proximité en 2013.

Il se souvient que l’explosion a rempli la pièce de poussière et de fumée. Entendant des appels à l’aide, il est allé au marché à l’extérieur et a vu des mains, des jambes et des cadavres couverts de sang.

Les équipes de télévision locales ont capturé ces scènes. Les images ont été publiées sur YouTube et Facebook, mais ont ensuite été supprimées.

Dans le chaos du conflit, des journalistes syriens ont déclaré à la BBC que leurs propres enregistrements des images originales avaient également été détruits lors de bombardements.

Des années plus tard, alors qu’Imad demandait l’asile dans l’UE, on lui a demandé de fournir des documents prouvant qu’il était sur les lieux.

« J’étais sûr que ma pharmacie avait été filmée. Mais quand je suis allé en ligne, cela m’a amené à une vidéo supprimée. »

En réponse à ce genre d’incident, des organisations comme Mnemonic, une organisation de défense des droits de l’homme basée à Berlin, sont intervenues pour archiver les images avant qu’elles ne disparaissent.

Mnemonic a développé un outil pour télécharger et sauvegarder automatiquement les preuves de violations des droits humains – d’abord en Syrie et maintenant au Yémen, au Soudan et en Ukraine.

Ils ont enregistré plus de 700 000 images de zones de guerre avant qu’elles ne soient supprimées des réseaux sociaux, dont trois vidéos montrant l’attaque près de la pharmacie d’Imad.

Chaque image peut contenir un indice clé pour découvrir ce qui s’est réellement passé sur le champ de bataille – le lieu, la date ou l’auteur.

Mais des organisations comme Mnemonic ne peuvent pas couvrir toutes les zones de conflit dans le monde.

Prouver que des crimes de guerre ont été commis est incroyablement difficile – il est donc vital d’obtenir autant de sources que possible.

« La vérification, c’est comme résoudre un puzzle – vous rassemblez des informations apparemment sans rapport pour construire une image plus grande de ce qui s’est passé », déclare Olga Robinson de BBC Verify.

La tâche d’archiver le matériel open source – accessible à presque tout le monde sur les réseaux sociaux – incombe souvent à des personnes ayant pour mission d’aider leurs proches pris dans un conflit violent.

Légende,

Rahwa dit qu’il est de son « devoir » d’archiver le matériel open source du conflit dans la région du Tigré en Éthiopie

Rahwa vit aux États-Unis et a de la famille dans la région du Tigré en Éthiopie, qui a été ravagée par la violence ces dernières années et où les autorités éthiopiennes contrôlent étroitement le flux d’informations.

Cependant, les médias sociaux signifient qu’il existe un enregistrement visuel d’un conflit qui pourrait autrement rester caché au monde extérieur.

« C’était notre devoir », dit Rahwa. « J’ai passé des heures à faire des recherches, et donc quand vous voyez ce contenu arriver, vous essayez de vérifier en utilisant tous les outils de renseignement open source sur lesquels vous pouvez mettre la main, mais vous ne savez pas si vous êtes de la famille ça va. »

Les militants des droits de l’homme disent qu’il y a un besoin urgent d’un système formel pour rassembler et stocker en toute sécurité le contenu supprimé. Cela inclurait la préservation des métadonnées pour aider à vérifier le contenu et prouver qu’il n’a pas été falsifié.

Mme Van Schaak, ambassadrice des États-Unis pour la justice pénale mondiale, déclare : « Nous devons créer un mécanisme permettant de conserver ces informations pour d’éventuels futurs exercices de responsabilisation. Les plateformes de médias sociaux devraient être disposées à prendre des dispositions avec des mécanismes de responsabilisation dans le monde entier.

[ad_2]

Laisser un commentaire