Le 18 janvier 2021, Pavel Durov, fondateur de Telegram, a annoncé sur sa chaîne publique que l'équipe de modération de l'application avait consacré les dernières semaines à supprimer des centaines d'appels publics à la violence.
"Telegram accueille favorablement les débats et les manifestations pacifiques, mais nos conditions d'utilisation interdisent explicitement la diffusion d'appels publics à la violence", a-t-il écrit. "Les mouvements civils du monde entier comptent sur Telegram pour défendre les droits de l'homme sans recourir à la violence."
Début janvier, les modérateurs de Telegram ont reçu un afflux de signalements concernant des activités aux États-Unis. Sans intervention rapide, ces appels auraient pu toucher "des dizaines de milliers" de personnes, selon Durov.
Telegram a connu une forte croissance d'utilisateurs durant cette période, notamment d'anciens abonnés de WhatsApp, qui impose désormais le partage de données avec Facebook.
Cependant, les chaînes publiques ne représentent qu'une partie de Telegram, axé principalement sur la messagerie privée avec chiffrement de bout en bout, protégeant les conversations des accès tiers.
Durov n'a pas évoqué ces conversations privées et a remercié les utilisateurs pour leurs signalements de chaînes incitant activement à la violence.
Telegram n'est pas seule : de nombreuses plateformes ont fait face à une pression inédite pour modérer les menaces violentes post-élection présidentielle américaine de 2020 et défaite de Donald Trump.
Les comptes Facebook et Instagram de Trump ont été suspendus jusqu'à l'investiture de Joe Biden et Kamala Harris.
Twitter a supprimé des tweets de Trump violant sa politique d'intégrité civique. Bumble a désactivé son filtre politique, utilisé pour identifier des émeutiers du Capitole.
Comme la plupart des réseaux sociaux, Telegram tolère le débat politique respectueux et agit résolument contre les incitations à la violence.