La propagande autour de l’invasion russe de l’Ukraine révèle des lacunes dans la modération de Meta

Share Post:

Quelques jours après l’attentat à la bombe du 9 mars contre une maternité et un hôpital pour enfants dans la ville ukrainienne de Marioupol, des commentaires affirmant que l’attaque n’avait jamais eu lieu ont commencé à inonder les files d’attente des travailleurs modérant le contenu de Facebook et Instagram au nom du propriétaire des applications, Meta Platforms. au moins trois personnes, dont un enfant, a déclaré publiquement le président ukrainien Volodymyr Zelenskyy. Des images de femmes ensanglantées et très enceintes fuyant à travers les décombres, leurs mains berçant leur ventre, ont déclenché une indignation immédiate dans le monde entier. Parmi les femmes les plus reconnues figurait Mariana Vishegirskaya, une influenceuse ukrainienne de la mode et de la beauté. Des photos d’elle descendant une cage d’escalier d’hôpital en pyjama à pois ont largement circulé après l’attaque, capturées par un photographe de l’Associated Press. Les expressions de soutien en ligne à la future mère se sont rapidement transformées en attaques sur son compte Instagram, selon deux entrepreneurs. modérant directement le contenu du conflit sur Facebook et Instagram. Ils ont parlé à Reuters sous couvert d’anonymat, citant des accords de non-divulgation qui les interdisaient de discuter publiquement de leur travail. ont déclaré les modérateurs. L’administration russe s’est emparée des images, les plaçant côte à côte avec ses photos Instagram sur papier glacé dans le but de persuader les téléspectateurs que l’attaque avait été truquée. À la télévision d’État et sur les réseaux sociaux, ainsi que dans la chambre du Conseil de sécurité de l’ONU, Moscou a allégué – à tort – que Vishegirskaya avait mis du maquillage et plusieurs tenues dans un canular orchestré par les forces ukrainiennes. Des essaims de commentaires accusant l’influenceur de duplicité et être une actrice est apparue sous de vieilles publications Instagram d’elle posée avec des tubes de maquillage, ont déclaré les modérateurs. ont contenu un mélange de messages soupçonnés de violer la myriade de politiques de Meta, a rappelé la personne. « Les messages étaient ignobles » et semblaient avoir été orchestrés, a déclaré le modérateur. Mais beaucoup étaient dans les règles de l’entreprise, a déclaré la personne, car ils n’ont pas directement mentionné l’attaque. « Je ne pouvais rien faire à leur sujet », a déclaré le modérateur. Reuters n’a pas pu contacter Vishegirskaya. Meta a refusé de commenter sa gestion de l’activité impliquant Vishegirskaya, mais a déclaré dans un communiqué à Reuters que plusieurs équipes s’occupaient du problème. « Nous avons des équipes d’experts distinctes et des partenaires extérieurs qui examinent la désinformation et les comportements inauthentiques et nous avons appliqué nos politiques pour contrer cette activité avec force tout au long de la guerre », indique le communiqué. Le chef de la politique de Meta, Nick Clegg, a déclaré séparément aux journalistes mercredi que la société était envisager de nouvelles mesures pour lutter contre la désinformation et les canulars des pages du gouvernement russe, sans donner plus de détails. Le ministère russe du Développement numérique, des Communications et des Médias de masse et le Kremlin n’ont pas répondu aux demandes de commentaires. Les représentants de l’Ukraine n’ont pas répondu à une demande de commentaire. L’esprit de la politique’ Basés dans un centre de modération de plusieurs centaines de personnes examinant le contenu d’Europe de l’Est, les deux sous-traitants sont des fantassins dans la bataille de Meta pour contrôler le contenu du conflit. Ils font partie des dizaines de milliers de travailleurs mal rémunérés des entreprises de sous-traitance du monde entier. Meta contracte pour faire respecter ses règles.  » pour désarmer et  » dénazifier  » son voisin. Quelques jours seulement après le début de la guerre, Meta a imposé des restrictions aux médias d’État russes et a supprimé un petit réseau de faux comptes coordonnés qui, selon lui, tentaient de saper la confiance dans le gouvernement ukrainien. a déclaré qu’il avait supprimé un autre réseau basé en Russie qui signalait à tort des personnes pour des violations telles que des discours de haine ou des brimades, tout en repoussant les tentatives de réseaux précédemment désactivés de revenir sur la plate-forme. région d’exprimer leur colère face à l’invasion de la Russie et de lancer des appels aux armes d’une manière que Meta ne permettrait normalement pas.En Ukraine et dans 11 autres pays d’Europe de l’Est et t e Caucase, il a créé une série d’exemptions temporaires « de l’esprit de la politique » à ses règles interdisant les discours de haine, les menaces violentes et plus encore. Les changements visaient à honorer les principes généraux de ces politiques plutôt que leur formulation littérale, selon les instructions Meta aux modérateurs vues par Reuters. son allié le président biélorusse Alexandre Loukachenko, à moins que ces appels ne soient considérés comme crédibles ou ne contiennent des cibles supplémentaires, selon les instructions. entreprise après qu’un rapport de Reuters du 10 mars ait rendu publiques les exclusions. La Russie a également interdit Facebook et Instagram à l’intérieur de ses frontières, un tribunal accusant Meta d' »activité extrémiste ». Meta est revenu sur des éléments des exceptions après le rapport. Il les a d’abord limités à la seule Ukraine, puis en a annulé un complètement, selon des documents examinés par Reuters ainsi que des déclarations publiques et des entretiens de Meta avec deux membres du personnel de Meta, les deux modérateurs en Europe et un troisième modérateur, qui gère le contenu en anglais dans un autre. région et avait vu les avis. Les documents offrent un aperçu rare de la façon dont Meta interprète ses politiques, appelées normes communautaires. La société affirme que son système est neutre et basé sur des règles. Les critiques disent qu’il est souvent réactif, motivé autant par des considérations commerciales et des cycles d’actualités que par principe. C’est une plainte qui a poursuivi Meta dans d’autres conflits mondiaux, notamment au Myanmar, en Syrie et en Éthiopie. Les chercheurs en médias sociaux affirment que cette approche permet à l’entreprise d’échapper à la responsabilité de la façon dont ses politiques affectent les 3,6 milliards d’utilisateurs de ses services. L’orientation changeante sur l’Ukraine a généré de la confusion et de la frustration pour les modérateurs, qui disent avoir 90 secondes en moyenne pour décider si un le message donné enfreint la politique, comme l’a rapporté pour la première fois le New York Times. Reuters a confirmé de manière indépendante ces frustrations avec trois modérateurs. Après que les exemptions ont été signalées le 10 mars, le chef de la politique de Meta, Nick Clegg, a déclaré dans un communiqué le lendemain que Meta n’autoriserait un tel discours qu’en Ukraine. Deux jours plus tard, Clegg a déclaré aux employés que l’entreprise était annulant complètement l’exemption qui avait permis aux utilisateurs d’appeler à la mort de Poutine et de Loukachenko, selon un message interne de l’entreprise du 13 mars. Fin mars, l’entreprise a prolongé les exemptions restantes réservées à l’Ukraine jusqu’au 30 avril, selon les documents. Cette extension permet aux Ukrainiens de continuer à s’engager dans certains types de discours violents et déshumanisants qui seraient normalement interdits. Au sein de l’entreprise, écrivant sur une plateforme sociale interne, certains employés de Meta ont exprimé leur frustration que Facebook permette aux Ukrainiens de faire des déclarations qui auraient ont été jugés interdits pour les utilisateurs qui publient sur des conflits antérieurs au Moyen-Orient et dans d’autres parties du monde, selon des copies des messages. « , a écrit un employé dans l’un des 900 commentaires sur un message sur les changements. Pendant ce temps, Meta n’a donné aux modérateurs aucune indication pour améliorer leur capacité à désactiver les messages faisant la promotion de faux récits sur l’invasion de la Russie, comme le déni de morts civiles, ont déclaré les gens. La société a refusé de commenter ses conseils aux modérateurs. Nier les tragédies violentes En théorie, Meta avait une règle qui aurait dû permettre aux modérateurs de adressez-vous aux foules de commentateurs dirigeant du vitriol sans fondement sur Vishegirskaya, l’influenceuse beauté enceinte. Elle a survécu à l’attentat à la bombe de l’hôpital de Marioupol et a accouché, a rapporté l’Associated Press. des tragédies qui incluent des affirmations selon lesquelles une tragédie violente ne s’est pas produite », selon les normes communautaires publiées sur son site Web. Il a cité cette règle lorsqu’il a supprimé les messages de l’ambassade de Russie à Londres qui avaient poussé de fausses allégations sur l’attentat de Mariupol après l’attaque du 9 mars. Mais parce que la règle est étroitement définie, ont déclaré deux des modérateurs, elle ne pouvait être utilisée qu’avec parcimonie pour lutter contre la campagne de haine en ligne contre l’influenceur beauté qui a suivi. le sous-texte était clair, ont-ils déclaré. Les conseils de Meta permettant aux commentateurs de tenir compte du contexte et d’appliquer l’esprit de cette politique auraient pu aider, ont-ils ajouté. Meta a refusé de dire si la règle s’appliquait aux commentaires sur le compte de Vishegirskaya. , même les messages explicites se sont avérés insaisissables pour les systèmes d’application de Meta. Une semaine après l’attentat à la bombe, des versions des messages de l’ambassade de Russie circulaient encore sur au moins huit comptes officiels russes sur F acebook, y compris ses ambassades au Danemark, au Mexique et au Japon, selon une organisation de surveillance israélienne, FakeReporter. L’un d’eux montrait une « fausse » étiquette rouge posée sur les photos de Mariupol de l’Associated Press, avec un texte affirmant que l’attaque contre Vishegirskaya était un canular et pointant du doigt lecteurs à « plus de 500 commentaires d’utilisateurs réels » sur son compte Instagram la condamnant pour avoir participé à la ruse présumée. Meta a supprimé ces messages le 16 mars, quelques heures après que Reuters a interrogé l’entreprise à leur sujet, a confirmé un porte-parole. Meta a refusé de dire pourquoi les messages avaient échappé à ses propres systèmes de détection. Le lendemain, le 17 mars, Meta a désigné Vishegirskaya comme une « personne publique involontaire », ce qui signifiait que les modérateurs pouvaient enfin commencer à supprimer les commentaires dans le cadre de la politique d’intimidation et de harcèlement de l’entreprise. ils ont dit. Mais le changement, ont-ils dit, est venu trop tard. Le flux de messages liés à la femme avait déjà ralenti à un filet. À une époque à la fois de désinformation et de trop d’informations, un journalisme de qualité est plus crucial que jamais. En vous abonnant, vous pouvez nous aider à bien raconter l’histoire. ABONNEZ-VOUS MAINTENANT GALERIE PHOTO (CLIQUEZ POUR AGRANDIR) .

Stay Connected

More Updates

La propagande autour de l’invasion russe de l’Ukraine révèle des lacunes dans la modération de Meta

You might also enjoy