Le conseil de surveillance de Meta affirme que l’IA seule ne suffit pas à modérer le contenu de la guerre entre Israël et le Hamas

Meta a besoin d’une plus grande surveillance humaine dans les décisions de modération du contenu, en particulier les publications dans une langue autre que l’anglais.

Nous pouvons gagner une commission sur les liens sur cette page.
Prendre des décisions erronées.
Prendre des décisions erronées.
Illustration: Dado Ruvic (Reuters)

Le conseil de surveillance de Meta n’est pas d’accord avec la décision de l’entreprise de retirer deux vidéos relatives à la guerre entre Israël et le Hamas, l’une des otages enlevés d’Israël par le Hamas, et un montrant les conséquences du bombardement de Hôpital Al-Shifa à Gaza par les Forces de défense israéliennes.

Publicité

Le 7 décembre, le conseil a ouvert un examen accéléré des deux vidéos après Meta a supprimé les posts pour avoir « violé à la fois ses règles en matière de violence et d’incitation ainsi que ses règles dangereuses concernant les organisations et les individus », mais les a rétablis peu de temps après. cas de première urgence.

Le 19 décembre le conseil d’administration a dit qu’il n’était pas d’accord avec la décision initiale de Meta, estimant que « la restauration du contenu sur la plateforme, avec un écran d’avertissement « marqué comme perturbant », est cohérent avec Les politiques de contenu, les valeurs et les responsabilités de Meta en matière de droits de l’homme” dans les deux cas.

Publicité

La réponse de Meta à l’attaque du Hamas – considéré comme une organisation terroriste aux États-Unis et ailleurs – a consisté à abaisser le « seuil de retrait » pour des contenus violents et graphiques, y compris le retrait de vidéos dans lesquelles des otages étaient identifiables. La modification de la politique est un problème, mais sa mise en œuvre impersonnelle est un plus grand, a soutenu le conseil de surveillance.

Publicité

Les membres du conseil d’administration déclarent que l’IA est à blâmer

Khaled Mansour, un écrivain et militant des droits de l’homme qui a fait partie du conseil de surveillance depuis mai 2022, a déclaré que les outils d’intelligence artificielle (IA) sont responsables de cette erreur de jugement, car à la fois la décision de retrait initiale et le rejet de l’avis de l’utilisateur les appels ont été automatiquement effectués en fonction du score du classificateur, sans aucun examen humain.

Publicité

Le Conseil de surveillance a déclaré qu’« une surveillance humaine insuffisante de la modération automatisée pendant la réponse à une crise peut conduire à la suppression incorrecte de propos qui pourraient être d’intérêt public important », selon un post de Mansour sur X.

Hamas fonctionnalités dans la liste de ce que Meta appelle des « organisations et individus dangereux », aux côtés de groupes comme ISIS, le Ku Klux Klan et Hitler. Cependant, les systèmes automatisés Le filtre n’est pas très efficace pour distinguer les messages discutant ou même condamnant le Hamas des messages qui le soutiennent. Pendant ce temps, l’outil de traduction d’Instagram insérait le mot “terroriste” dans la traduction de la biographie et des légendes qui comportaient le mot “Palestinien”, l’émoji du drapeau palestinien, ou le terme arabe pour « Dieu soit loué », 404 Média signalé en octobre. Des militants palestiniens préoccupés par l’algorithme d’Instagram interdisant leurs publications ont inventé un algospeak terme désignant les Palestiniens – P*les+in1ans – pour contourner la censure automatisée.

Publicité

Le sujet a révélé des préjugés dans le passé. À la suite du conflit de 2021 entre Israël et la Palestine, une rapport de diligence raisonnable demandé par le Conseil de Surveillance a révélé « le contenu en arabe avait une plus grande application excessive”, suggérant qu’il était plus probable d’être retiré par Meta systèmes automatisés de modération de contenu.

Citable : Meta doit être mieux préparé à modérer le contenu en conflit

« Nous voyons des vidéos et des photos, parfois provenant uniquement de passants ou de journalistes, être supprimées et on ne sait pas pourquoi. Nous préconisons vraiment pour une modération de contenu plus spécifique au contexte... Nous avons vu suffisamment de crises au cours de la dernière décennie pour avoir une idée de certains modèles. et quel genre d’outils devraient être mis en place.

Marwa Fatafta, directrice des politiques et du défense du défense des droits numériques Accès Maintenant

Publicité

Contenu de la guerre Israël-Hamas sur Meta, en chiffres

12 : Jours que le Conseil de surveillance a mis pour rendre un verdict sur les deux postes liés à la guerre entre Israël et le Hamas. 30 jours.

Publicité

500 % : Augmentation de l’antisémitisme et de l’islamophobie dans les 48 heures suivant l’attaque du Hamas du 7 octobre qui a rompu la guerre, selon le Projet mondial contre Haine et extrémisme

795 000 : Des éléments de contenu Meta supprimés ou marqués comme perturbants dans les trois jours suivant le 7 octobre pour violation de politiques comme Organisations et individus dangereux, Contenu violent et graphique, Discours de haine, Violence et Incitation, Intimidation et harcèlement, et Coordonner les préjudices en hébreu et arabe

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité