Twitter Files : Les Listes Noires Secrètes

Une nouvelle publication de Twitter Files révèle que des équipes de Twitter, avant le rachat de la plateforme par Elon Musk, avaient mis en place des listes noires, empêchaient les tweets politiquement incorrects de monter en tendance et limitaient activement la visibilité de certains comptes ou même de sujets populaires — tout ceci en secret, sans en informer les utilisateurs.

Des outils en back-end permettaient aux équipes de Twitter de modérer, ou plutôt de censurer, des contenus jugés politiquement incorrects.

Twitter avait autrefois pour mission de « donner à chacun le pouvoir de créer et de partager des idées et des informations instantanément, sans barrières« . Cependant, ces dernières années, de nombreuses barrières ont néanmoins été érigées, notamment avec des motivations idéologiques et politiques.

Par exemple, le Dr Jay Bhattacharya, éminent professeur à Stanford (@DrJBhattacharya), déclarait que les confinements liés au COVID nuiraient aux enfants. Twitter l’a secrètement placé sur une «liste noire des tendances», ce qui a empêché ses tweets de monter en tendance.

De même, le très populaire animateur de talk-show de droite, Dan Bongino (@dbongino), a été pendant un temps placé sur une «liste noire de recherche».

Twitter avait également placé le compte de l’activiste conservateur Charlie Kirk (@charliekirk11) dans la catégorie « Ne pas amplifier ».

Twitter a longtemps publiquement nié se livrer à de telles pratiques. En 2018, Vijaya Gadde (alors responsable de la politique juridique) et Kayvon Beykpour (responsable produit) ont déclaré : « Nous ne pratiquons pas le shadow ban ». Ils ont ajouté: « Et nous ne pratiquons certainement pas de shadow bans en fonction des points de vue politiques ou idéologiques. »

En réalité, il semble que ces déclarations dissimulent un habile jeu de langage. Ce que l’on appelle « shadow ban », les anciens dirigeants et employés de Twitter l’appellent le « filtrage de la visibilité » ou « VF » pour Visibility Filtering. Plusieurs sources de haut niveau ont confirmé cette signification.

« Considérez le filtrage de la visibilité comme un moyen pour nous de supprimer ce que les gens voient à différents niveaux. C’est un outil très puissant », a déclaré un employé senior de Twitter à la journaliste Bari Weiss.

« VF » fait référence au contrôle de Twitter sur la visibilité des utilisateurs. La site a utilisé le VF pour bloquer les recherches d’utilisateurs ; pour limiter la portée de la découvrabilité d’un tweet particulier ; pour empêcher les publications de certains utilisateurs d’apparaître sur la page « tendance » ; et de leur inclusion dans les recherches par hashtag. Tout ceci à l’insu des utilisateurs.

« Nous contrôlons beaucoup la visibilité. Et nous contrôlons aussi l’amplification de votre contenu. Et les gens normaux ne savent pas ce que nous faisons », a déclaré un ingénieur de Twitter, confirmé en cela par deux autres employés.

Le groupe qui a décidé de limiter la portée de certains utilisateurs était l’équipe de réponse stratégique – l’équipe d’escalade globale, ou SRT-GET. Elle traitait souvent jusqu’à 200 « cas » par jour.

Mais il existait un niveau au-dessus des modérateurs de base qui suivaient les indications des conditions d’utilisation. Il s’agit de la « Politique d’intégrité du site », connue sous le nom de « SIP-PES ». Ce groupe secret comprenait le responsable juridique, politique et confiance (Vijaya Gadde), le responsable mondial de la confiance et de la sécurité (Yoel Roth), les ex-PDG Jack Dorsey et Parag Agrawal, et d’autres.

C’est là que les décisions les plus importantes et les plus politiquement sensibles ont été prises. « Pensez à un compte controversé et avec beaucoup d’abonnés« , déclare un autre employé de Twitter. Pour ce type de compte, « il n’y avait de possibilité de déposer un ticket au support ou quoi que ce soit d’autre. »

L’un des comptes « sensibles » qui a atteint ce niveau de surveillance et de restrictions était @libsoftiktok, un célèbre compte dénonçant les dérives « woke » qui figurait sur la « liste noire des tendances » et qui a été placé dans la liste « Ne pas agir sur l’utilisateur sans consulter SIP-PES ».

Ce compte, lancé par Chaya Raichik en novembre 2020, a rencontré un énorme succès avec plus de 1,4 million d’abonnés et a fait l’objet de six suspensions d’une semaine chacune, rien qu’en 2022.

Twitter affirmait à chaque fois à Raichik qu’elle avait été suspendue pour avoir enfreint la politique de Twitter contre les « conduites haineuses ».

Mais dans une note interne SIP-PES d’octobre 2022, après sa septième suspension, le comité a reconnu que « LTT (Libs of TikTok) n’a pas directement adopté un comportement contraire à la politique sur les conduites haineuses ». Voir ici :

Le comité a justifié les suspensions, uniquement en interne, en affirmant que les tweets de Libs of TikTok encourageaient le harcèlement en ligne « d’hôpitaux et des prestataires de soins médicaux » pour avoir insinué « que les soins de santé transgenre étaient de la maltraitance ou de la manipulation à l’égard des enfants« .

Comparez la réaction de Twitter par rapport au jour où Raichik a elle-même été doxxée le 21 novembre 2021. Une photo de sa maison avec son adresse avait été publiée par la journaliste Taylor Lorenz du Washington Post dans un tweet qui a recueilli plus de 10 000 likes. La presse mainstream pro-démocrate avait alors déclaré que ce doxx était « justifié ».

Lorsque Raichik a indiqué à Twitter que son adresse avait été diffusée contre son gré, le support de Twitter avait répondu avec ce message : « Nous avons examiné le contenu signalé et n’avons pas trouvé qu’il enfreignait les règles de Twitter. » Aucune mesure n’a donc été prise. Le tweet de Taylor Lorenz est toujours en ligne.

 

Sur le Slack interne, les employés de Twitter discutaient de la possibilité d’utiliser des techniques pour restreindre la visibilité des tweets et des sujets problématiques ou jugés contraires à l’idéologie « woke ». Voici les propos de Yoel Roth, alors responsable mondial de la confiance et de la sécurité chez Twitter, dans un message direct à un collègue début 2021 :

Six jours plus tard, dans un message direct avec un employé de l’équipe de recherche sur la santé, la désinformation, la confidentialité et l’identité, Roth a demandé plus de recherches visant à étendre les « interventions de politique de non-retrait comme la désactivation des engagements et la désamplification/filtrage de la visibilité ».

Roth écrivait que « L’hypothèse sous-jacente à une grande partie de ce que nous avons mis en œuvre est que si l’exposition à la désinformation cause directement des dommages, nous devrions utiliser des mesures correctives pouvant réduire l’exposition à ces contenus et limiter la propagation/viralité du contenu est un bon moyen d’y arriver .”

Il ajoutait : « Nous avons convaincu Jack (Dorsey, ndlr) de mettre ceci en œuvre pour favoriser l’intégrité civique à court terme, mais nous allons devoir présenter des arguments plus solides pour intégrer cela dans notre répertoire de mesures réglementaires correctives  – en particulier pour d’autres domaines de réglementation. »

Source : Bari Weiss, The Free Press