Un exercice de diligence raisonnable indépendant sur l’impact de Meta sur les droits de l’homme en Israël et en Palestine lors de l’escalade de mai 2021

Nous voulons que nos services soient un lieu où les gens peuvent s’exprimer librement et en toute sécurité dans le monde entier. Cela est particulièrement vrai dans les situations où les médias sociaux peuvent être utilisés pour propager la haine, alimenter les tensions et inciter à la violence sur le terrain. C’est pourquoi nous avons des règles claires contre terrorisme, discours de haine et inciter à la violenceet des experts en la matière qui contribuent à l’élaboration et à l’application de ces règles. Nous avons également une entreprise Politique des droits de l’homme et un adepte équipe des droits de l’homme — nous aider à gérer les risques liés aux droits de l’homme et à mieux comprendre comment nos produits et technologies affectent différents pays et communautés.

Dans le cadre de notre engagement à aider à créer un environnement où les gens peuvent s’exprimer librement et en toute sécurité, et suite à une recommandation du Conseil de surveillance en Septembre 2021, nous avons demandé à Business for Social Responsibility (BSR) – une organisation indépendante spécialisée dans les droits de l’homme – de mener un exercice de diligence raisonnable sur l’impact de nos politiques et processus en Israël et en Palestine lors de l’escalade de mai 2021, y compris une enquête pour savoir si ces politiques et les processus ont été appliqués sans parti pris. Au cours de l’année écoulée, BSR a mené une analyse détaillée, y compris des contacts avec des groupes et des détenteurs de droits en Israël, en Palestine et dans le monde, pour étayer son rapport. Aujourd’hui, nous publions ce résultats et notre réponse.

Informations sur la diligence raisonnable

Comme BSR l’a reconnu dans son rapport, les événements de mai 2021 ont mis en évidence les défis de longue date à l’échelle de l’industrie concernant l’atténuation des contenus dans les régions touchées par les conflits et la nécessité de protéger la liberté d’expression tout en réduisant le risque d’utiliser les services en ligne pour propager la haine ou inciter à la violence. Le rapport a également souligné à quel point la gestion de ces problèmes était compliquée par les circonstances complexes entourant le conflit, notamment les dynamiques sociales et historiques, divers événements violents à évolution rapide et les actions et activités des organisations terroristes.

Malgré ces complications, BSR a identifié un certain nombre de “bonnes pratiques” dans notre réponse. Il s’agit notamment de nos efforts pour hiérarchiser les mesures visant à réduire le risque que la plate-forme soit utilisée pour encourager la violence ou les préjudices, y compris la mise en place rapide d’un centre d’opérations dédié pour répondre en temps réel à l’activité dans nos applications. Ce centre était doté d’équipes d’experts, y compris des experts régionaux et des locuteurs natifs de l’arabe et de l’hébreu, qui s’efforcent de supprimer le contenu qui enfreint nos politiques, ainsi que de s’assurer que nous corrigeons les erreurs dans notre application dès que nous en prenons connaissance. étaient conscients. Cela comprenait également nos efforts pour supprimer le contenu qui était proportionné et conforme aux normes mondiales en matière de droits de l’homme.

En plus de ces bonnes pratiques, BSR a conclu que différents points de vue, nationalités, ethnies et religions étaient bien représentés dans les équipes qui y travaillaient chez Meta. Ils n’ont trouvé aucune preuve de partialité intentionnelle pour l’un de ces motifs chez aucun de ces employés. Ils n’ont également trouvé aucune preuve que nous cherchions à profiter ou à nuire à une communauté particulière dans l’élaboration ou la mise en œuvre de nos politiques.

Cela dit, BSR a soulevé des inquiétudes importantes concernant l’application insuffisante du contenu, y compris l’incitation à la violence contre les Israéliens et les Juifs sur nos plateformes, et des cas spécifiques où ils pensaient que nos politiques et processus avaient un impact involontaire sur les communautés palestiniennes et arabes – principalement sur leur liberté. d’expression. BSR a formulé 21 recommandations spécifiques à la suite de sa diligence raisonnable, couvrant des domaines liés à nos politiques, la manière dont ces politiques sont appliquées et nos efforts pour assurer la transparence à nos utilisateurs.

Nos actions en réponse aux recommandations

Depuis que nous avons reçu le rapport final, nous avons soigneusement examiné ces recommandations pour nous aider à découvrir où et comment nous pouvons nous améliorer. Notre réponse décrit notre engagement à mettre en œuvre 10 des recommandations, en partie à en mettre en œuvre quatre, et nous évaluons la faisabilité de six autres. Nous ne prendrons aucune autre mesure sur une recommandation.

Il n’y a pas de solution miracle à bon nombre de ces recommandations, comme le précise BSR. Bien que nous ayons déjà apporté des changements importants à la suite de cet exercice, ce processus prendra du temps, y compris du temps pour comprendre la meilleure façon de répondre à certaines de ces recommandations et si elles sont techniquement réalisables.

Voici une mise à jour sur notre travail pour aborder certains des domaines clés mis en évidence dans le rapport :

Notre politique

BSR a recommandé que notre politique soit révisée sur : inciter à la violence et Personnes et organisations dangereuses (DOI) – règles que nous avons qui interdisent aux groupes tels que les terroristes, les organisations haineuses et criminelles, tels que définis dans nos politiques, qui déclarent une mission violente ou commettent des violences d’être présents sur Facebook ou Instagram. Nous jugeons ces entités en fonction de leur comportement, à la fois en ligne et hors ligne, et surtout de leurs liens avec la violence. Nous nous engageons à mettre en œuvre ces recommandations, notamment en lançant un examen des deux domaines politiques afin d’explorer comment nous abordons le débat politique sur les groupes interdits et comment nous pouvons faire plus pour lutter contre les contenus qui glorifient la violence. Dans le cadre de cette évaluation complète, nous consulterons un large éventail d’experts, d’universitaires et de parties prenantes – non seulement dans la région, mais dans le monde entier.

BSR nous a également recommandé d’utiliser le système de grèves et pénalités nous appliquons lorsque des personnes enfreignent notre politique DOI. Nous nous sommes engagés à évaluer la faisabilité de cette recommandation particulière, mais nous avons déjà commencé à travailler pour rendre ce système plus simple, plus transparent et plus proportionné.

En outre, BSR nous a encouragés à accroître l’engagement des parties prenantes et à assurer la transparence de nos obligations légales américaines dans ce domaine. Nous nous sommes engagés à mettre partiellement en œuvre cette recommandation. Bien que nous impliquions régulièrement de larges parties prenantes dans cette politique et la manière dont elle est appliquée, nous nous appuyons sur des conseils juridiques et les autorités compétentes en matière de sanctions pour comprendre nos obligations de conformité spécifiques dans ce domaine. Nous convenons que la transparence est essentielle ici et grâce à notre normes communautairesnous détaillons comment nous définissons les groupes terroristes, comment nous les classons et comment ces niveaux affectent les sanctions que nous appliquons aux personnes qui enfreignent nos règles.

Application de nos politiques

BSR a formulé un certain nombre de recommandations axées sur notre approche de la révision du contenu en hébreu et en arabe.

BSR a recommandé de continuer à développer et à mettre en œuvre des classificateurs d’apprentissage automatique fonctionnels en hébreu. Nous nous sommes engagés à mettre en œuvre cette recommandation et avons lancé une classification des “discours hostiles” en hébreu depuis mai 2021 pour nous aider à détecter de manière proactive davantage de contenus en hébreu contrefaits. Nous pensons que cela améliorera considérablement notre capacité à gérer des situations comme celle-ci, où nous constatons des pics majeurs de violations de contenu.

BSR a également recommandé que nous continuions à développer des processus pour mieux acheminer le contenu arabe potentiellement conflictuel par dialecte pour l’examen du contenu. Nous évaluons la faisabilité de cette recommandation. Nous avons des équipes importantes et diverses pour évaluer le contenu arabe, avec une connaissance de la langue maternelle et une compréhension du contexte culturel local dans toute la région, y compris en Palestine. Nous avons également des systèmes qui utilisent la technologie pour déterminer dans quelle langue se trouve le contenu afin que nous puissions nous assurer qu’il est examiné par les examinateurs de contenu pertinents. Nous explorons une gamme d’options pour voir comment nous pouvons améliorer ce processus. Cela comprend l’évaluation de l’embauche de plus de réviseurs de contenu avec diverses capacités de dialecte et de langue, et de travail pour comprendre si nous pouvons former nos systèmes pour mieux distinguer les différents dialectes arabes afin d’aider à acheminer et à réviser le contenu arabe.

L’analyse de BSR montre que Facebook et Instagram interdisent le contenu antisémite dans le cadre de leurs politiques de discours de haine, qui n’autorisent pas les attaques contre quiconque en raison de leur religion ou de tout autre attribut protégé. BSR note également que parce que nous ne suivons pas actuellement les cibles des discours de haine, nous ne pouvons pas mesurer la prévalence du contenu antisémite, et ils ont recommandé de développer un mécanisme pour nous permettre de le faire. Nous convenons qu’il serait utile de mieux comprendre la prévalence de formes spécifiques de discours de haine, et nous nous engageons à évaluer sa faisabilité.

De plus, BSR nous a recommandé d’ajuster les processus dont nous disposons pour mettre à jour et maintenir les mots-clés associés à : organisations dangereuses désignées, pour empêcher les hashtags d’être bloqués de manière inappropriée, comme le bogue de mai 2021 qui a temporairement limité la capacité des gens à voir le contenu de la page de hashtag al-Aqsa. Bien que nous ayons rapidement résolu ce problème, cela n’aurait jamais dû se produire en premier lieu. Nous avons déjà mis en œuvre cette recommandation et avons mis en place un processus pour garantir que les équipes d’experts de Meta sont désormais responsables de la vérification et de l’approbation de ces mots clés.

Transparence

Comme base de tout cela, BSR a formulé une série de recommandations pour aider les gens à mieux comprendre nos politiques et nos processus.

BSR nous a conseillé de fournir des informations spécifiques et détaillées aux personnes lorsque nous supprimons du contenu contrefait et appliquons des « avertissements ». Nous appliquons partiellement cette recommandation car certaines personnes enfreignent plusieurs politiques en même temps, ce qui crée des défis quant à notre degré de précision à grande échelle. Nous fournissons déjà ces informations spécifiques et détaillées dans la plupart des cas et nous avons commencé à les fournir dans un plus grand nombre de cas lorsque cela est possible.

BSR a également recommandé que nous divulguions le nombre de rapports officiels reçus des agences gouvernementales pour supprimer le contenu qui ne viole pas la législation locale, mais peut violer nos normes communautaires. Nous nous engageons à mettre en œuvre cette recommandation. Nous publions déjà un rapport semestriel détaillant la quantité de contenu par pays que nous restreignons pour violation de la législation locale à la suite d’une demande légale valide. Nous travaillons actuellement à étendre les mesures que nous fournissons dans le cadre de ce rapport pour inclure des détails sur le contenu qui a été supprimé pour violation de nos politiques à la demande du gouvernement.

Le rapport de BSR est un pas en avant extrêmement important pour nous et notre travail dans le domaine des droits de l’homme. Les événements mondiaux sont dynamiques, de sorte que la façon dont nous traitons la sûreté, la sécurité et la liberté d’expression doit également être dynamique. Ces évaluations des droits de l’homme sont un moyen important par lequel nous pouvons continuer à améliorer nos produits, nos politiques et nos processus.

Pour plus d’informations sur les mesures supplémentaires que nous avons prises, veuillez lire notre réponse à l’examen de BSR complètement ici. Nous continuerons d’informer les gens de nos progrès dans notre rapport annuel sur les droits de la personne.

Leave a Reply

Your email address will not be published.