La répression de YouTube contre QAnon ne fonctionne pas

Le groupe d'extrême droite QAnon a attiré l'attention du public ces dernières semaines pour sa capacité à manœuvrer les plateformes de médias sociaux pour répandre de la désinformation et attirer l'attention virale pour ses théories du complot.

Les plateformes de médias sociaux comme Twitter et TikTok ont ​​pris des mesures contre le groupe après que des théories du complot longtemps réfutées comme #PizzaGate aient attiré une nouvelle attention, interdisant les comptes et empêchant ses hashtags populaires d'apparaître dans les recherches. Bien que les deux plates-formes se soient révélées être un terrain fertile pour le groupe, QAnon a prospéré sur YouTube pendant des années - malgré les investissements de la société pour le modérer.

À présent, la plate-forme vidéo tente d'empêcher les vidéos QAnon d'apparaître dans les recommandations des utilisateurs, mais un test Digital Trends a révélé que les vidéos de théorie du complot apparaissent toujours à des endroits importants sur la page d'accueil YouTube.

Supporter QAnon avec drapeau Q Scott Olson / Getty Images

Les partisans de QAnon croient en un certain nombre de théories du complot réfutées qui ont vu le jour sur les tableaux d'images 4chan et 8chan fin 2016. Le groupe estime qu'un personnage nommé «Q», qui prétend faire partie de l'administration Trump, publie des dépêches sur la guerre du président Donald Trump contre un complot «d'État profond». Le groupe a connu une croissance importante sur YouTube depuis 2016, puisque l'algorithme axé sur l'engagement promeut les vidéos QAnon.

«QAnon a d'abord attiré l'attention sur YouTube», a déclaré Will Partin, analyste de recherche au Data & Society Research Institute, qui étudie le groupe depuis 2017. «Il a été repris par les YouTubers qui ont vraiment donné les jambes du complot, et par conséquent , vraiment diffusé, et a fait le travail de le relier à d'autres choses qui étaient déjà dans l'air »parmi les conservateurs.

"Vous ne pouvez pas empêcher quelqu'un de le rechercher activement"

Grâce à la nature même de YouTube, la plate-forme s'est avérée être le premier endroit où prospéraient les pseudo-documentaires longs et les talk-shows déchiffrant les indices ou «fil d'Ariane» abandonné par «Q». Les personnes intéressées par les théories QAnon pourraient facilement trouver d'autres utilisateurs recommandant des vidéos supplémentaires dans la section des commentaires ou via les algorithmes de recommandation de YouTube - une fonctionnalité qui a été critiquée par les critiques comme un moyen facile de «radicaliser» les téléspectateurs.

Mais maintenant, si vous tapez "QAnon" dans la barre de recherche de YouTube, votre écran "fera apparaître en évidence les sources faisant autorité" comme les agences de presse et les experts - une partie du plan de YouTube visant à générer du contenu factuel pour lutter contre la désinformation. YouTube a également commencé à proposer des zones de texte et des panneaux d'information renvoyant à des sources tierces. Digital Trends a constaté que YouTube fournit un lien vers l'article Wikipédia sur QAnon sous des vidéos connexes.

Youtube

YouTube a déclaré que depuis qu'il a mis en œuvre de nouvelles politiques de modération de contenu en janvier, il a constaté une réduction de 70% du nombre de vues que le contenu QAnon obtient des recommandations vidéo. Étant donné que YouTube est un site de plate-forme vidéo, pas un site de réseautage social, la modération se fait sur une base vidéo à vidéo, et non par compte. Et selon un porte-parole de YouTube, les systèmes de la plate-forme ont été ajustés pour abaisser le classement du contenu QAnon dans la barre latérale des recommandations, même si vous regardez des vidéos similaires.

Cependant, Digital Trends a constaté qu'après avoir regardé une demi-douzaine de vidéos liées à QAnon sur la plate-forme, YouTube a présenté au moins trois vidéos avec des conspirations liées à QAnon sous l'onglet «Toutes les recommandations» sur la page d'accueil. Une vidéo recommandée mentionnait la conspiration entourant le composé chimique Adrenochrome - largement diffusé au sein des groupes QAnon comme étant obtenu par des personnalités d'élite hollywoodiennes par le meurtre d'enfants - et a été visionnée plus d'un million de fois.

Un représentant de YouTube a refusé de commenter cette histoire.

Selon Partin, la façon dont le contenu QAnon est visualisé sur YouTube n'est pas basée sur les vidéos recommandées aux utilisateurs, mais sur le contenu des vidéos liées à QAnon elles-mêmes. Les influenceurs QAnon en crient souvent un autre dans une vidéo ou dirigent les spectateurs vers d'autres pages, quelle que soit la manière dont YouTube modère les tags ou les vidéos QAnon. Cependant, Partin a déclaré que certaines balises QAnon sont si obscures qu'il est impossible pour YouTube de remplir les résultats de recherche avec du contenu factuel provenant de sources réputées.

«À ce stade, vous ne pouvez pas le cacher de manière algorithmique, vous ne pouvez pas empêcher quelqu'un de le rechercher activement», a-t-il déclaré.

Partin a déclaré que YouTube était autrefois «le point clé» pour qu'un utilisateur soit présenté au contenu lié à QAnon, mais maintenant la plupart des recrutements se font sur Facebook - où les groupes privés de QAnon peuvent se multiplier par centaines de milliers et sont particulièrement difficiles à modérer.

Selon le New York Times, Facebook prévoit de faire une démarche similaire pour modérer le groupe, en suivant les traces de Twitter et de TikTok.

«Lorsque les plates-formes se déplacent pour interdire QAnon, elles font souvent tout en même temps pour avoir la force du nombre», a déclaré Partin. «Mais il est vraiment difficile de construire une politique sur QAnon car il s'agit en grande partie de trucs réguliers de l'électorat conservateur.

Partin a déclaré que la seule chose qu'il espère que les gens comprennent au sujet des dangers du contenu lié à QAnon sur les médias sociaux n'est pas à quel point ses complots sont crus ou profondément, mais le risque d'appuyer sur le bouton «partager» lui-même.

«Il est impossible de connaître les intentions de quelqu'un, mais l'intention n'a pas beaucoup d'importance», a-t-il déclaré. «Je me fiche de savoir s'ils croient ou non cela, ils agissent comme ils le font, et ils diffusent ce contenu et cette crédibilité, quelle que soit l'intention qui les sous-tend.