Le bombardement a tué au moins trois personnes, dont un enfant, a déclaré publiquement le président ukrainien Volodymyr Zelenskiy. Les images de femmes ensanglantées et lourdement enceintes fuyant à travers les décombres, leurs mains berçant leur ventre, ont suscité une indignation immédiate dans le monde entier.

Parmi les femmes les plus reconnues se trouvait Mariana Vishegirskaya, une influenceuse ukrainienne de mode et de beauté. Des photos d'elle descendant un escalier d'hôpital en pyjama à pois ont largement circulé après l'attaque, capturées par un photographe d'Associated Press https://apnews.com/article/russia-ukraine-europe-edf7240a9d990e7e3e32f82ca351dede.

Les expressions en ligne de soutien à la future maman se sont rapidement transformées en attaques sur son compte Instagram, selon deux entrepreneurs modérant directement le contenu du conflit sur Facebook et Instagram. Ils ont parlé à Reuters sous couvert d'anonymat, citant des accords de non-divulgation qui leur interdisaient de discuter publiquement de leur travail.

Le cas de l'influenceur beauté n'est qu'un exemple de la manière dont les politiques de contenu et les mécanismes d'application de Meta ont permis la propagande pro-russe pendant l'invasion de l'Ukraine, ont déclaré les modérateurs à Reuters.

L'administration russe s'est emparée des images, les mettant côte à côte avec ses photos Instagram brillantes dans le but de persuader les téléspectateurs que l'attaque avait été simulée. Sur la télévision d'État et les médias sociaux, ainsi que dans la salle du Conseil de sécurité de l'ONU, Moscou a allégué - à tort - que Vishegirskaya avait enfilé du maquillage et de multiples tenues dans un canular élaboré orchestré par les forces ukrainiennes.

Des essaims de commentaires accusant l'influenceuse de duplicité et d'être une actrice sont apparus sous d'anciens posts Instagram d'elle posant avec des tubes de maquillage, ont indiqué les modérateurs.

Au plus fort de l'assaut, les commentaires contenant de fausses allégations sur la femme représentaient la majeure partie du matériel dans la file d'attente de contenu d'un modérateur, qui aurait normalement contenu un panorama de posts soupçonnés de violer la myriade de politiques de Meta, se souvient la personne.

"Les messages étaient ignobles et semblaient avoir été orchestrés, a déclaré le modérateur à Reuters. Mais beaucoup d'entre eux étaient conformes aux règles de l'entreprise, a précisé la personne, car ils ne mentionnaient pas directement l'attaque. "Je ne pouvais rien faire à leur sujet", a déclaré le modérateur.

Reuters n'a pas pu contacter Vishegirskaya.

Meta a refusé de commenter sa gestion de l'activité impliquant Vishegirskaya, mais a déclaré dans une déclaration à Reuters que plusieurs équipes se penchent sur la question.

"Nous avons des équipes distinctes, expertes et des partenaires extérieurs qui examinent les fausses informations et les comportements inauthentiques et nous avons appliqué nos politiques pour contrer cette activité avec force tout au long de la guerre", a déclaré la déclaration.

Le chef de la politique de Meta, Nick Clegg, a déclaré séparément aux journalistes mercredi que l'entreprise envisageait de nouvelles mesures pour lutter contre la désinformation et les canulars provenant des pages du gouvernement russe, sans donner plus de détails.

Le ministère russe du Développement numérique, des Communications et des Médias de masse et le Kremlin n'ont pas répondu aux demandes de commentaires.

Les représentants de l'Ukraine n'ont pas répondu à une demande de commentaire.

L'ESPRIT DE LA POLITIQUE

Basés dans un centre de modération de plusieurs centaines de personnes qui examinent le contenu provenant d'Europe de l'Est, les deux contractants sont des fantassins dans la bataille que mène Meta pour contrôler le contenu provenant du conflit. Ils font partie des dizaines de milliers de travailleurs mal payés travaillant dans des entreprises de sous-traitance du monde entier que Meta charge de faire respecter ses règles.

Le géant de la technologie a cherché à se positionner en tant qu'intendant responsable du discours en ligne pendant l'invasion, que la Russie appelle une "opération spéciale" pour désarmer et "dénazifier" son voisin.

Quelques jours seulement après le début de la guerre, Meta a imposé des restrictions aux médias d'État russes et a supprimé un petit réseau de faux comptes coordonnés qui, selon elle, tentaient de saper la confiance dans le gouvernement ukrainien.

La société a ensuite déclaré qu'elle avait supprimé un autre réseau basé en Russie qui signalait à tort des personnes pour des violations telles que des discours haineux ou des brimades, tout en repoussant les tentatives des réseaux précédemment désactivés de revenir sur la plate-forme.

Pendant ce temps, la société a tenté de créer un espace permettant aux utilisateurs de la région d'exprimer leur colère face à l'invasion de la Russie et de lancer des appels aux armes d'une manière que Meta n'aurait normalement pas autorisée.

En Ukraine et dans 11 autres pays d'Europe de l'Est et du Caucase, Meta a créé une série d'exemptions temporaires "d'esprit de la politique" à ses règles interdisant les discours de haine, les menaces violentes et autres ; les changements étaient destinés à honorer les principes généraux de ces politiques plutôt que leur formulation littérale, selon les instructions de Meta aux modérateurs vues par Reuters.

Par exemple, il autorisait les "discours déshumanisants contre les soldats russes" et les appels à la mort au président russe Vladimir Poutine et à son allié, le président biélorusse Alexandre Loukachenko, sauf si ces appels étaient considérés comme crédibles ou contenaient des cibles supplémentaires, selon les instructions consultées par Reuters.

Ces changements sont devenus un point chaud pour Meta, qui a dû faire face à des pressions tant à l'intérieur de l'entreprise que de la part de Moscou, qui a ouvert une enquête criminelle sur la société après qu'un rapport de Reuters du 10 mars ait rendu les découpages publics. La Russie a également interdit Facebook et Instagram à l'intérieur de ses frontières, un tribunal accusant Meta d'"activité extrémiste".

Meta a fait marche arrière sur certains éléments des exceptions après le rapport de Reuters. Elle les a d'abord limitées à la seule Ukraine, puis en a carrément annulé une, selon des documents examinés par Reuters, les déclarations publiques de Meta et des entretiens avec deux membres du personnel de Meta, les deux modérateurs en Europe et un troisième modérateur qui gère le contenu en anglais dans une autre région qui avait vu les avis.

Les documents proposent un regard rare sur la façon dont Meta interprète ses politiques, appelées normes communautaires. L'entreprise affirme que son système est neutre et fondé sur des règles.

Ses détracteurs affirment qu'il est souvent réactif, guidé autant par des considérations commerciales et des cycles d'actualités que par des principes. C'est une plainte qui a poursuivi Meta dans d'autres conflits mondiaux, notamment au Myanmar, en Syrie et en Éthiopie. Les chercheurs en médias sociaux affirment que cette approche permet à l'entreprise d'échapper à la responsabilité de la façon dont ses politiques affectent les 3,6 milliards d'utilisateurs de ses services.

L'orientation changeante sur l'Ukraine a généré de la confusion et de la frustration pour les modérateurs, qui disent avoir 90 secondes en moyenne pour décider si un post donné viole la politique, comme l'a d'abord rapporté le New York Times. Reuters a confirmé de manière indépendante ces frustrations auprès de trois modérateurs.

Après que Reuters ait rapporté les exemptions le 10 mars, le chef de la politique de Meta, Nick Clegg, a déclaré dans une déclaration le lendemain que Meta n'autoriserait de tels discours qu'en Ukraine.

Deux jours plus tard, Clegg a dit aux employés que la société annulait complètement l'exemption qui avait permis aux utilisateurs d'appeler à la mort de Poutine et de Lukashenko, selon un message interne de la société du 13 mars vu par Reuters.

À la fin du mois de mars, l'entreprise a prolongé les exemptions restantes pour l'Ukraine uniquement jusqu'au 30 avril, selon les documents. Reuters est le premier à rapporter cette extension, qui permet aux Ukrainiens de continuer à se livrer à certains types de discours violents et déshumanisants qui seraient normalement interdits.

Au sein de l'entreprise, écrivant sur une plateforme sociale interne, certains employés de Meta ont exprimé leur frustration de voir que Facebook permettait aux Ukrainiens de faire des déclarations qui auraient été jugées hors limites pour les utilisateurs publiant des messages sur des conflits antérieurs au Moyen-Orient et dans d'autres parties du monde, selon des copies des messages consultés par Reuters.

Il semble que cette politique dise que les discours haineux et la violence sont acceptables s'ils visent les "bonnes" personnes", a écrit un employé, l'un des 900 commentaires sur un message concernant les changements.

Pendant ce temps, Meta n'a donné aucune directive aux modérateurs pour améliorer leur capacité à désactiver les messages promouvant de faux récits sur l'invasion de la Russie, comme le déni de la mort de civils, ont déclaré les personnes à Reuters.

L'entreprise a refusé de commenter ses conseils aux modérateurs.

NIER LES TRAGÉDIES VIOLENTES

En théorie, Meta disposait d'une règle qui aurait dû permettre aux modérateurs de s'attaquer aux foules de commentateurs adressant un vitriol sans fondement à Vishegirskaya, l'influenceuse beauté enceinte. Elle a survécu à l'attentat de l'hôpital de Mariupol et a accouché de son bébé, a rapporté l'Associated Press https://apnews.com/article/russia-ukraine-health-europe-bombings-259ec00f1a6c426603827985dac3a3e9.

La politique de harcèlement de Meta interdit aux utilisateurs de "publier du contenu sur une tragédie violente, ou sur des victimes de tragédies violentes, qui inclut des affirmations selon lesquelles une tragédie violente n'a pas eu lieu", selon les normes communautaires publiées sur son site Web. Le site a cité cette règle lorsqu'il a supprimé des posts de l'ambassade de Russie à Londres qui avaient poussé de fausses affirmations sur l'attentat de Mariupol après l'attaque du 9 mars.

Mais comme la règle est étroitement définie, deux des modérateurs ont déclaré qu'elle ne pouvait être utilisée qu'avec parcimonie pour lutter contre la campagne de haine en ligne contre l'influenceuse beauté qui a suivi.

Les messages qui prétendaient explicitement que l'attentat avait été mis en scène pouvaient être supprimés, mais des commentaires tels que "vous êtes une si bonne actrice" étaient considérés comme trop vagues et devaient rester affichés, même lorsque le sous-texte était clair, ont-ils dit.

Des conseils de Meta permettant aux commentateurs de tenir compte du contexte et d'appliquer l'esprit de cette politique auraient pu aider, ont-ils ajouté.

Meta a refusé de commenter si la règle s'appliquait aux commentaires sur le compte de Vishegirskaya.

Dans le même temps, même les messages explicites ont échappé aux systèmes d'application de Meta.

Une semaine après l'attentat, des versions des messages de l'ambassade russe circulaient encore sur au moins huit comptes officiels russes sur Facebook, y compris ses ambassades au Danemark, au Mexique et au Japon, selon une organisation de surveillance israélienne, FakeReporter.

L'un d'eux montrait une étiquette rouge "fake" posée sur les photos de Mariupol de l'Associated Press, avec un texte affirmant que l'attaque contre Vishegirskaya était un canular, et pointant les lecteurs vers "plus de 500 commentaires de vrais utilisateurs" sur son compte Instagram la condamnant pour avoir participé à la prétendue ruse.

Meta a supprimé ces posts le 16 mars, quelques heures après que Reuters ait interrogé l'entreprise à ce sujet, a confirmé un porte-parole. Meta a refusé de commenter la raison pour laquelle les posts avaient échappé à ses propres systèmes de détection.

Le lendemain, le 17 mars, Meta a désigné Vishegirskaya comme une "personne publique involontaire", ce qui signifiait que les modérateurs pouvaient enfin commencer à supprimer les commentaires en vertu de la politique d'intimidation et de harcèlement de l'entreprise, ont-ils dit à Reuters.

Mais le changement, ont-ils dit, est arrivé trop tard. Le flux de messages liés à cette femme avait déjà ralenti pour devenir un filet d'eau.