Facebook adopte une position beaucoup plus ferme sur les partisans de la théorie du complot QAnon. La plate-forme supprime désormais les pages, les comptes et les groupes relatifs à QAnon sur Facebook et Instagram.
QAnon est une théorie du complot d'extrême droite apparue pour la première fois en 2017. Selon cette théorie, le président américain Donald Trump se bat contre un "État profond" malveillant qui contrôle le gouvernement américain et la société dans son ensemble. Le groupe est dirigé par un personnage anonyme, Q, qui prétend avoir accès à des informations classifiées du gouvernement.
Facebook a commencé à agir contre QAnon et d'autres mouvements sociaux militarisés en août 2020. Au total, Facebook a réussi à supprimer plus de 1 500 pages et groupes liés à QAnon qui encourageaient la violence.
Mais maintenant, Facebook renforce ses restrictions sur le contenu lié à QAnon. Dans un article de blog À propos de Facebook, la plateforme a annoncé qu'elle commencerait à supprimer toutes les représentations de QAnon sur Facebook et Instagram. Facebook a noté que l'interdiction inclut tous les groupes, comptes et pages QAnon, "même s'ils ne contiennent aucun contenu violent".
Pour accélérer le processus de suppression, Facebook ne s'appuie pas seulement sur les rapports des utilisateurs pour se débarrasser de QAnon, mais utilise son équipe des opérations d'organisations dangereuses pour identifier et éliminer le contenu lié à QAnon.
Cette mise à jour intervient après que Facebook a remarqué l'impact négatif de QAnon sur le réseau. Facebook a découvert que la plate-forme n'incite pas seulement à la violence, mais qu'elle diffuse également de fausses informations qui causent "des dommages dans le monde réel".
À titre d'exemple, Facebook a déclaré que les groupes QAnon impliquaient à tort certains groupes comme étant la cause des incendies de forêt en Californie, qui auraient interféré avec la sécurité publique. QAnon fait également la promotion de la désinformation sur le COVID-19 sur toute la plate-forme, tout en prétendant lutter contre la traite des enfants.
À ce titre, Facebook a commencé à orienter les utilisateurs vers des ressources crédibles en matière de sécurité des enfants et a également supprimé les groupes de santé des listes de recommandations.
Facebook a également constaté que les idées de QAnon changeaient rapidement, contribuant davantage à la confusion, déclarant :
De plus, la messagerie QAnon change très rapidement et nous voyons des réseaux de supporters construire une audience avec un message, puis basculer rapidement vers un autre. Nous visons à lutter plus efficacement contre cela avec cette mise à jour qui renforce et étend notre action contre le mouvement de la théorie du complot.
Même encore, Facebook pourrait ne pas être en mesure de s'attaquer à toutes les nouvelles menaces QAnon qui surgissent. Facebook dit qu'il "s'attend à de nouvelles tentatives" des utilisateurs essayant de rétablir les communautés QAnon, et qu'il mettra à jour sa "politique et son application si nécessaire".
Mais malgré l'interdiction de toutes sortes de contenus QAnon, Facebook fait toujours face à un contrecoup pour sa réponse. Certaines personnes critiquent la plate-forme pour avoir agi trop lentement pour combattre QAnon, car Facebook a permis aux groupes liés à QAnon d'exister et de se développer depuis 2017.
QAnon a eu amplement le temps de construire sa base, et Facebook n'a rien fait jusqu'à présent. Si QAnon ne peut plus exister sur Facebook, ses partisans se tourneront probablement vers un autre média social pour diffuser des informations erronées et des contenus préjudiciables.