Le terme « bot de médias sociaux » dépasse désormais les chatbots ou l'IA du service client. Aujourd'hui, il évoque surtout des comptes automatisés malveillants impliqués dans des campagnes de désinformation.
Mais qu'est-ce que ces bots sociaux malveillants ? Comment identifier leurs types ? Et quels outils permettent de distinguer les vrais comptes des faux ? Voici un guide complet et fiable basé sur des recherches reconnues.
Bien que les plateformes sociales hébergent divers bots, nous nous focalisons ici sur les bots politiques et malveillants, distincts des bots légitimes comme Deep Question Bot (outil ludique sur Twitter) ou Thread Reader App (qui formate les threads).
Ces bots malveillants et faux comptes imitent des humains pour manipuler l'opinion publique, propager de fausses nouvelles, accentuer la polarisation, éroder la confiance dans les institutions, diffuser de la propagande ou alimenter des théories conspirationnistes.
Selon l'Oxford Internet Institute, l'intention malveillante les distingue des automatisations bienveillantes.
« Les bots malveillants sont conçus pour nuire. Ils opèrent avec une fausse identité, incluant spam, vol de données, diffusion de fausses informations, perturbation de débats, infiltration d'entreprises et malware », explique l'institut dans son guide de 2018.
Ils amplifient hashtags et mots-clés, mènent du harcèlement ciblé et partagent des liens manipulés. Un rapport de 2017 de l'Université d'Oxford (« Computational Propaganda Worldwide : Executive Summary ») identifie leurs opérateurs : groupes marginaux à gouvernements.
Twitter est le plus touché, mais ils pullulent aussi sur Facebook, Reddit, Weibo et ailleurs.
Ils ont marqué les élections US 2016 et le Brexit, mais transcendent les camps politiques. Une étude de Nature (« The spread of low-credibility content by social bots ») montre qu'ils propagent du contenu peu crédible des deux extrêmes, comme la désinformation anti-vaccins.
« Les sources peu crédibles, aux deux bouts du spectre, sont amplifiées par les bots », note l'étude. Les bots individuels restent souvent partisans (ex. : anti-scientifiques).

Les faux comptes amplifiant opinions politiques ou infos erronées varient par automatisation et objectifs. Voici les principaux types.
Entièrement automatisé, sans intervention humaine : algorithmes gèrent tout. Ils retweetent (amplification) ou répondent à mots-clés/hashtags.
Automatisés focalisés sur la sécurité : clickbait imitant des éditeurs pour rediriger vers des sites malveillants.
Hybrides (automatisation + humain important). L'humain masque l'automatisation pour harcèlement ou propagande. Distincts des planificateurs légitimes comme TweetDeck.

De plus en plus sophistiqués, ils publient du contenu original. Le Digital Forensic Research Lab (Atlantic Council) identifie trois traits : activité inhumaine, amplification obsessionnelle, anonymat.
« Un compte anonyme hyperactif amplifiant un point de vue est suspect », précise le labo.
Autres signaux :
Les humains varient sujets et publient sporadiquement.
Des outils aident les chercheurs et utilisateurs. Aucun n'est parfait, mais combinés à l'observation, ils sont précieux. Focalisés sur Twitter.

Botometer (ex-BotOrNot), par l'Université d'Indiana, évalue l'automatisation via algorithme. Vérifie comptes et abonnés (utile pour réseaux bots).

Extension navigateur analysant propagande : fréquence, retweets, langage polarisant. Permet corrections pour amélioration.

Par Luca Hammer, visualise activité Twitter : rythme suspect (ex. : bots 24/7 via Cheap Bots, Done Quick !).

Résume stats (tweets, retweets, sentiment) sans login. Idéal pour repérer anomalies.
Les bots propagent la désinfo, mais les humains aussi. Renforcez-vous avec notre guide anti-fake news.
Crédit image : sdecoret/Depositphotos
[]