À quel point êtes-vous certain que votre interlocuteur en ligne est une personne réelle ? Comment distinguer un passionné authentique d'un agent influencé par un gouvernement ou une organisation ?
Identifier les bots russes ou les shills payés est un défi croissant, alors que les accusations d'ingérence étatique se multiplient. Voici les clés pour les déceler.
Commençons par clarifier les termes.
Bot : Un compte automatisé contrôlé par une organisation ou un État pour manipuler l'opinion publique. Par exemple, des bots Twitter amplifient des hashtags spécifiques via des retweets massifs, ou des bots Reddit votent pour favoriser certaines vues. Leur efficacité repose souvent sur le volume, bien que quelques-uns suffisent parfois à orienter une conversation. N'importe qui peut en créer avec Python.
Shill : Une personne réelle rémunérée pour influencer les débats en ligne. Ils promeuvent entreprises, gouvernements ou personnalités via une propagande déguisée. Ils collaborent souvent avec des bots pour créer des mouvements artificiels.
Cette pratique, appelée astroturfing, simule un soutien populaire orchestré par des acteurs organisés.
Les bots et shills russes ont marqué la campagne présidentielle américaine de 2016. Robert Mueller, procureur spécial, a inculpé 13 Russes liés à l'Internet Research Agency (IRA), accusée de propagande.
Les tactiques incluent la création de faux profils américains, le vol d'identités, l'appâtage de militants minoritaires ou la création de groupes comme "Woke Blacks" sur Instagram pour influencer le vote.
Les réseaux sociaux sont un vecteur clé. En 2018, Twitter a alerté 677 775 utilisateurs américains ayant interagi avec du contenu IRA et purgé des comptes bots, déclenchant #twitterlockout chez certains conservateurs. Pourtant, les conservateurs ont retweeté les trolls russes 31 fois plus que les libéraux.
Twitter affirme une approche apolitique. Notez que bots et astroturfing touchent tous les bords : dès 2007, la campagne Clinton utilisait des comptes anonymes, et en 2016, des bots pro-Clinton étaient actifs (moins que pour Trump).
Les plateformes ne sont pas saturées de bots. Le Computational Propaganda Project (Université d'Oxford) analyse leurs interactions. Le tableau ci-dessous [PDF] compare l'automatisation sur hashtags pro-Trump/pro-Hillary (1er-9 novembre 2016) :

Automatisation élevée : >50 tweets/jour sur hashtags électoraux. Le faible niveau indique plus d'humains. Des études estiment les bots à 15 % des comptes Twitter, soit plus de 40 millions.
Exemple concret : en 2016, à Houston, les groupes Facebook "Heart of Texas" (anti-islamisation) et "Musulmans unis d'Amérique" (contre-manifestation) se sont affrontés. Réalité : pages créées par une ferme à trolls russe pour attiser les tensions.
Les bots avancés sont discrets, mais voici des signes :
Sur Reddit, surveillez les downvotes systématiques masquant les dissidences.
Plus subtils, ils imitent les utilisateurs normaux. Signes :
Vérifiez les cycles : publication 24h/24 est suspecte. Les pros s'infiltrent en se liant d'amitié avant d'agir.
Signalez-les, ignorez les trolls. À l'approche des échéances électorales, restez vigilant sur les biais médiatiques.
Les réseaux sociaux offrent aussi du positif.
Crédit image : raptorcaptor/Depositphotos
[]