04.08.2025
Un rapport récemment publié par CheckFirst et Reset.Tech a révélé l’évolution préoccupante du réseau de comptes Matriochka (1). Ce dernier a amélioré ses tactiques de création de faux contenus, notamment grâce à un usage accru de l’intelligence artificielle (IA), et s’est récemment implanté sur TikTok. Ce mode opératoire s'inscrit dans la culture stratégique russe actuelle, qui est une version modernisée, grâce aux nouvelles technologies, de la doctrine de la maskirovka (tromperie). Dans le cadre d’une stratégie combinant les notions de guerre informationnelle, de guerre d’influence et de guerre cognitive, les récentes opérations d’influence russe comme Overload et Matriochka recourent à la diffusion massive de désinformation, à l’exploitation des algorithmes ou encore à l’usage d’un vaste réseau de comptes, sites et personnalités. L’objectif est d’affaiblir durablement les adversaires de la Russie en détériorant leur prise de décision grâce à une modification durable de leur perception de la réalité et de leurs facultés cognitives. Chaque campagne a son propre mode opératoire, dans le but de déstabiliser l’espace informationnel et de remettre en cause la crédibilité des institutions, médias et personnalités publiques des Etats qui s'opposent à la Russie. Réputée pour son influence dans l’élection présidentielle américaine de 2024, l’opération Matriochka pourrait désormais cibler les prochaines élections législatives en Moldavie, prévues en septembre 2025. En investissant massivement les réseaux sociaux, cette campagne met en évidence une menace grandissante et souligne l’urgence d’agir pour restaurer et préserver l’intégrité du débat public.
L’opération au cœur de cette analyse est souvent dénommée de manière interchangeable : Overload, Matriochka, ou, pour Microsoft, Storm-1679. Overload rassemble sous sa bannière toutes les activités russes qui visent, comme son nom l’indique, à provoquer une surcharge cognitive et informationnelle chez les médias et fact-checkers des pays cibles (2). Un précédent article du CEDIRE se concentrait sur le mode opératoire d’Overload fondé sur les emails (3), tandis que le présent article, suivant la distinction faite par l’EU Disinfo Lab (4), se concentre sur le mode opératoire le plus proche de la notion de Matriochka. En effet, à la manière des poupées russes dont chacune peut en cacher une autre, l’opération a recours à un vaste réseau de faux comptes constamment renouvelés afin de propager des fausses informations (5). L’étape suivante est d’interpeller les journalistes et fact-checkers pour demander une réponse à ces faux contenus, une stratégie qui s’inscrit dans le cadre de la plus large opération, Overload (6). La figure ci-dessous permet de visualiser les différentes techniques employées et les cibles concernées.
Tout comme Overload, Matriochka vise à distraire et submerger les journalistes et fact-checkers en les sollicitant inlassablement avec de nouvelles fausses informations à vérifier sous peine d’être accusés d’inefficacité. Face à une charge de travail accrue en raison du besoin d’enquêter et de produire de nombreux articles de debunkage (démystification), la fatigue et la surcharge mentale s’accumulent et nuisent à la qualité du travail que ces acteurs sont capables de fournir. Cela a aussi un effet de décrédibilisation pour la population qui se retrouve ainsi confrontée à un espace informationnel saturé de contenus alarmistes et de réfutations. La perception de la réalité en devient brouillée et le doute peut s’installer à l’encontre des médias, fact-checkers et personnalités censés être les garants d’une information fiable. Les narratifs russes, et plus spécifiquement ceux visant à réduire le soutien occidental envers l’Ukraine, s’en trouvent alors potentiellement renforcés une fois que la confiance en leurs détracteurs est érodée (7).
Selon VIGINUM, l’opération découverte par le collectif @antibot4navalny est active depuis août ou septembre 2023 et dans plus de 60 pays. Il s’agit principalement des Etats européens ou des Etats-Unis, mais d’autres pays sont parfois touchés, en particulier l’Ukraine.
La figure 2 offre le détail de la répartition des activités de Matriochka en Europe. La France est particulièrement concernée en tant que pays moteur de l’Europe de la défense, critiquant la Russie et ayant accueilli un événement international stratégiquement visé par Matriochka, à savoir les Jeux Olympiques et Paralympiques d’été de 2024. Par ailleurs, les cibles, qui se comptent en plusieurs centaines ou milliers de comptes sur les réseaux, ne sont pas limitées aux seules agences de presse ou de fact-checking et peuvent aussi inclure de manière plus restreinte des individus et des entités faisant figures d’autorité, telles que les universités (8). En imitant l’apparence de ces dernières ou de professeurs reconnus, les fausses informations peuvent gagner en crédibilité grâce au biais d’autorité et être plus difficiles à vérifier.
La première étape à chaque nouvelle vague de l’opération est la production de faux contenus. Matriochka emprunte alors à RNN ou Doppelgänger en créant des reportages, des captures d’écran ou des documents officiels fictifs ayant l’apparence de la vérité grâce à la réutilisation de la charte graphique des acteurs réels. La seconde étape est la diffusion de ces contenus. D’abord par une chaîne Telegram russe, puis, par le réseau de comptes de Matriochka. Celui-ci republie et commente principalement sur les comptes des journalistes, médias et fact-checkers (9).
Le réseau Matriochka est alimenté par des comptes abandonnés piratés (10) ou des comptes achetés ou créés spécialement pour cet usage (11). Ces comptes artificiels, parfois automatisés, tentent de se faire passer pour de véritables utilisateurs, le plus souvent pour des journalistes. VIGINUM distingue deux groupes de comptes. Le premier, dénommé les “seeders” (semeurs en français), est chargé de la publication des faux contenus. Le second, dénommé les “quoters” (citateurs) partagent les publications des “seeders” en commentant sous les publications de leurs cibles. En réalité, cette répartition n’est pas strictement respectée et les comptes peuvent adopter la double casquette ou changer de rôle à chaque nouvelle vague de l’opération, volontairement ou accidentellement en raison d’une erreur humaine (12). Ce système est censé accorder plus de crédibilité aux contenus en simulant une interaction authentique, le plus souvent en faisant croire que la controverse est répandue et mérite d’y prêter attention. Ce type de message de spam, coordonné entre plusieurs comptes, est susceptible de s’aggraver pour une cible si elle décide d’y répondre, comme ce fut le cas pour certains médias selon VIGINUM (13).
Bien que l’objectif premier de l'opération ne soit pas la recherche de visibilité, elle exploite néanmoins dans une certaine mesure les algorithmes des réseaux sociaux. Cela passe notamment par l’usage de hashtags sur X (anciennement Twitter), ou encore à travers l’engagement farming (“fabrication de l’engagement”) en soutenant des activités et comptes sans lien avec Matriochka mais ayant cette dynamique d’astroturfing (simulation d’un mouvement populaire spontané) pour gagner en visibilité, comme la crypto monnaie et les NFT (14)
Depuis le début de l’opération en 2023 et toujours aujourd’hui, X est la plateforme principale utilisée par ce réseau. L’opération a cependant été étendue au réseau social Bluesky en décembre 2024, suivant l’exode d’un grand nombre des utilisateurs déçus du rachat de Twitter par Elon Musk. Et depuis mai 2025, l’opération a gagné TikTok, selon le collectif antibot4navalny. Ce groupe a par ailleurs fait remarquer une perte d’intérêt de Matriochka pour la plateforme Bluesky depuis le mois de juin 2025 . Les causes avancées de ce retrait potentiel seraient une modération plus efficace du réseau social, qui supprime les posts et suspend les comptes en quelques jours (15). L’existence d’une étiquette de signalement “Matryoshka Disinfo” sur les posts que le collectif signale comme appartenant à l’opération, et des utilisateurs plus avertis que sur les autres plateformes ont également joué un rôle (16). Bien qu’il soit encore trop tôt pour se prononcer avec certitude, le retrait de l’opération de la plateforme Bluesky au profit de TikTok pourrait être le signe que Matriochka dirige désormais ses efforts vers une plateforme davantage adaptée à ses cibles. Bluesky et Tiktok sont toutes deux des plateformes sur lesquelles les journalistes sont particulièrement actifs. Tiktok a cependant une audience bien plus considérable, notamment en Moldavie (17). L’expansion de Matriochka au réseau social TikTok, tout en étant actif parallèlement sur X et Telegram, coïncide avec une nouvelle vague de l’opération sur ces plateformes en Moldavie (18). Nous reviendrons plus en détails sur le cas de la Moldavie dans la suite de cet article.
L’IA est un outil particulièrement redoutable entre les mains du réseau Matriochka. Elle permet de générer, à grande échelle, des contenus sur mesure au service de la campagne de manipulation. A titre d’exemple, les “seeders” ont publié des images des villes de Berlin et de Paris mises à feu par des immigrants musulmans armés, encourageant un narratif xénophobe favorable aux partis d’extrême droite (19). La Russie cherche en effet à soutenir certains groupes politiques pour nuire au projet européen démocrate et libéral (20). L’IA permet d’obtenir une traduction rapide et culturellement adaptée à la cible d’un contenu, une faculté essentielle pour les ingérences dans l’espace informationnel d’un autre Etat. L’un des aspects les plus préoccupants reste la capacité de l’IA à imiter les voix des personnes figurant dans les vidéos de l’opération, pour leur faire tenir un tout autre discours. Ce fut notamment le cas de la française Isabelle Bourdon, professeure à l’université de Montpellier, dont la voix et l’image ont été détournés pour soutenir un parti allemand d’extrême droite (21). L’IA contribue également à accroître considérablement la quantité et la variété des contenus falsifiés diffusés en ligne. Entre juillet 2023 et juin 2024, CheckFirst et Reset.Tech ont recensé 230 contenus générés par l’IA, un chiffre qui a bondi à 587 contenus en septembre 2024 (22). Cependant, la menace la plus préoccupante reste la manipulation algorithmique opérée par l’IA elle-même. Les réseaux sociaux sont depuis longtemps critiqués pour leur recours à des algorithmes favorisant l’addiction et créant un enfermement dans des bulles informationnelles (23). Par leur fonctionnement même, ces plateformes créent un terrain fertile à la manipulation cognitive. Désormais, ce ne sont plus seulement les algorithmes des plateformes qui posent problème, mais des IA extérieures, développées par des acteurs malveillants qui savent parfaitement exploiter les failles des algorithmes pour orienter, tromper ou radicaliser les utilisateurs. L’un des usages les plus manifestes de l’IA dans les opérations d’influences consiste à amplifier artificiellement un narratif et à diffuser massivement de la désinformation, ce que Matriochka fait abondamment grâce à son réseau de faux comptes et de bots. Sur le long terme, compte tenu du potentiel de perfectionnement de l’IA, ces réseaux ont vocation à évoluer vers une automatisation quasi totale, combinant présence massive et dissimulation sophistiquée, les rendant de plus en plus difficile à identifier comme artificiels (24). Dans ce contexte, on peut redouter une montée en puissance des campagnes d’influence, devenant à la fois plus crédibles et plus efficaces, et ce, dans un futur relativement proche, à moins que les plateformes sociales développent un cadre de protection satisfaisant, de leur propre initiative ou sous la pression des autorités publiques.
Suivies par le monde entier, les élections américaines sont depuis plus d’une décennie la cible privilégiée de plusieurs campagnes d’ingérence. Les élections présidentielles de 2024 ont été visées par le réseau Matriochka, principalement via X et Telegram, qui a cherché à exacerber la polarisation des opinions, réduire la crédibilité des médias traditionnels et faire planer le doute sur la légitimité du processus électoral. Les deux principaux candidats, Donald Trump et Kamala Harris, ainsi que leur entourage, ont été la cible de contenus diffamatoires. Cependant, selon le groupe de cybersécurité Insikt Group, Kamala Harris aurait été quatre fois plus ciblée que son adversaire républicain, ce qui est un déséquilibre pouvant être interprété comme un soutien implicite à Donald Trump. Les fausses informations l’accusaient notamment de mauvaise gestion financière de sa campagne avec une prétendue perte de 1,2 millions de dollars, faisaient circuler des rumeurs sur un avortement passé, l’accusaient de dissimuler des secrets familiaux ou encore d’être affectée par la maladie d’Alzheimer. D’autres récits alarmistes allaient jusqu’à prédire une guerre civile ou des violences de grande ampleur si Kamala Harris remportait les élections (25). La figure ci-dessous montre des exemples de ces contenus.
Depuis mi-avril 2025, c’est au tour de la Moldavie d’être ciblée par Matriochka. La présidente moldavienne Maia Sandu est au cœur d’une campagne visant à la discréditer, comme cela avait déjà pu être le cas lors des élections présidentielles de novembre 2024 (26). A travers ses efforts de réformation du pays, l’objectif est d’obtenir l’intégration de la Moldavie à l’Union européenne (UE). Le Sommet UE-Moldavie du 4 juillet 2025 à Chișinău, événement hautement symbolique, a ainsi été particulièrement visé. Cet événement marquait le soutien de l’Union à la politique de la présidente moldavienne, une reconnaissance précieuse alors que les prochaines élections parlementaires doivent se tenir en septembre 2025. En amont, comme l’illustre la figure 4, le réseau de comptes a diffusé une grande variété de narratifs selon lesquels Maia Sandu était notamment corrompue, droguée, voulait réprimer l’opposition politique et tentait de voler la place de Kaja Kallas, vice-présidente de la Commission européenne. Des rumeurs ont également été propagées concernant la survenue d’une attaque terroriste lors du Sommet (27). Selon NewsGuard, ces contenus ciblant Maia Sandy ont généré presque 2 millions de vues sur Telegram (28). Alors même que le Sommet a pris fin, la campagne se poursuit et il est ainsi prévisible que le réseau Matriochka redoublera d’efforts dans les semaines à venir pour éviter que le parti pro-europe de Maia Sandu ne soit vainqueur.
Il est essentiel pour la Moldavie de se préparer afin d’éviter une situation similaire à celle de la Roumanie. Les élections tenues en Roumanie en mai 2024 et remportées par Călin Georgescu avaient dû être annulées par la Cour constitutionnelle du pays en raison d’irrégularités. En effet, la victoire du candidat aurait été grandement due à la massive campagne électorale soutenue par le Kremlin et non déclarée ayant eu lieu sur Tiktok, avec plus de 25 000 comptes mobilisés selon les documents déclassifiés par le président sortant, Klaus Iohannis (29). Cette fois, en mai 2025, c’est sur Telegram que des manœuvres pro-russes ont tenté d’influencer le scrutin. Le fondateur de Telegram, Pavel Durov, a envoyé un message le jour des élections à tous les utilisateurs de l’application accusant ainsi les autorités européennes d’avoir voulu censurer les voix des conservateurs roumains sur la plateforme (30).
Ainsi, au regard de l’influence croissante qu’ont les réseaux sociaux et les opérations d’influence russe comme Matriochka sur les élections, les démocraties se doivent de développer un cadre législatif plus strict à leur encontre et se tenir prêtes à renforcer leur vigilance en période électorale.
Le Règlement européen sur les services numériques (Digital Services Act) de 2022 dispose en son article 34 que pour les fournisseurs de très grandes plateformes en ligne, la “diffusion de contenus illicites par l’intermédiaire de leurs services” et “ tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique” font partie des risques systémiques. Or, ce texte prévoit en son article 35 l’obligation pour les fournisseurs de très grandes plateformes en ligne de prendre des mesures d’atténuation des risques susmentionnés (31).
L'illicéité des contenus et les risques pour les élections sont des menaces associées aux activités de l’opération Matriochka. Il est plus que jamais nécessaire pour les réseaux sociaux concernés de développer un cadre permettant de lutter contre ce brouillard informationnel croissant. Le rapport de CheckFirst souligne que selon les chiffres de mai 2025, pour un nombre assez similaire de comptes Matriochka, seulement 10% ont été suspendus sur X alors que 65% ont été suspendu sur Bluesky (32). La réaction de X est particulièrement tardive étant donné que ces 10% sont exclusivement constitués de comptes activés en avril 2025 (33). La réponse de X à la désinformation ou mésinformation repose sur les community notes (notes communautaires) proposées par les utilisateurs souhaitant apporter des informations complémentaires ou une rectification des faits, et elles sont soumises au vote des autres utilisateurs pour devenir visible sous une publication. Cependant, ce système s’avère défaillant car une nouvelle note doit être faite pour chaque publication, même lorsque le contenu de deux publications est similaire, et ainsi, la plupart des publications associées à Matriochka demeurent vierges de toute community note (34). Un autre risque encouru via ce système qui repose sur la bonne foi et les connaissances des utilisateurs est l’utilisation même de ces notes pour propager de la désinformation ou de la mésinformation. Les notes légitimes peuvent aussi ne jamais apparaître si elles sont combattues par un groupe d’utilisateurs convaincus du contraire (35).
Le système d'étiquetage de Bluesky est assez similaire mais certaines différences sont à souligner. La modération a ses propres étiquettes visibles pour tous les utilisateurs, mais aucune ne porte sur la désinformation. Ce système est ouvert aux labelers tiers qui peuvent créer leurs propres étiquettes mais celles-ci ne s’affichent sur les publications que pour les utilisateurs abonnés au labeler en cause. Ainsi, pour apposer l’étiquette “Matryoshka disinfo” sur une publication, il suffit de le signaler au labeler antibot4navalny et l’équipe en charge de l’étiquette inspecte promptement le signalement et étiquette le contenu si ce dernier s’avère faire partie de l’opération. Une faiblesse évidente de ce système est la faible visibilité des efforts des labelers tiers sur la communauté dans sa globalité. Cependant, pour ce labeler en particulier, l’équipe de modération est déjà intervenue rapidement pour supprimer les publications et suspendre les comptes de l’opération Matriochka (36). Ce travail de pair peut permettre de réduire la charge de travail colossale pour les modérateurs.
TikTok a justement choisi cette approche collaborative. L’équipe de modération reçoit les signalements des utilisateurs et consulte tout d’abord sa base de données de fact-checking passée, puis si ce n’est pas concluant, fait appel à ses partenaires fact-checkers et journalistes de l’International Fact-Checking Network, comme l’AFP par exemple. Les modérateurs prennent ensuite la décision de supprimer le contenu, réduire sa visibilité, appliquer une étiquette d’avertissement, ou conserver la publication selon les réponses qu’ils reçoivent (37). Toutefois, TikTok, tout comme X, dépend en grande partie de l’IA pour sa modération, or, celle-ci n’est pas aussi efficace que les modérateurs humains. De plus, malgré cette procédure, la désinformation et la mésinformation continuent de se propager massivement sur TikTok. L’absence d’auto-modération par la communauté, comme sur Bluesky et X, aussi imparfaite soit-elle actuellement, accentue les risques sur cette plateforme (38). La situation sur ces plateformes demeure toutefois meilleure que le chaos qui règne sur la plateforme Telegram. La modération y est rarissime et quelque peu aléatoire ou pro-russe selon certaines accusations, ce qui fait de la plateforme un véritable bastion pour les opérations d’influence (39).
Alors même que les opérations d’influence russe continuent de s’améliorer, notamment grâce à l’IA, les démocraties peinent à se défendre. Comme les élections occidentales impactées par Matriochka ou d’autres acteurs le montrent, il est essentiel de renforcer la modération sur les plateformes numériques afin de protéger l’espace informationnel et le débat public. Ne pas agir, c’est courir le risque que le scepticisme envers les institutions publiques s’installe chez les citoyens et que les élections deviennent un combat entre des récits contradictoires, diffamatoires et infondés exploitant au mieux les algorithmes des réseaux sociaux pour manipuler et convaincre le peuple.
1. Check First et Reset.Tech, « Operation Overload », 5 juin 2024, checkfirst.network, [en ligne], disponible sur : https://checkfirst.network/wp-content/uploads/2024/06/Operation_Overload_WEB.pdf.
2. Ibid.
3. GRUAND Sarah, « Les opérations d’influence russe en France : le cas d’Overload », 1 juillet 2025, CEDIRE, [en ligne], disponible sur : https://www.cedire.fr/articles/les-operations-dinfluence-russe-en-france-le-cas-doverload.
4. EU Disinfo Lab, « What is the Doppelganger operation? List of resources », 15 mai 2025, disinfo.eu, [en ligne], disponible sur : https://www.disinfo.eu/doppelganger-operation/.
5. Ibid.
6. Check First et Reset.Tech, op. cit.
7. VIGINUM, « Matriochka : une campagne prorusse ciblant les médias et la communauté des fact-checkers », Juin 2024, SGDSN, [en ligne], disponible sur : https://www.sgdsn.gouv.fr/publications/matriochka-une-campagne-prorusse-ciblant-les-medias-et-la-communaute-des-fact-checkers.
8. Ibid.
9. Ibid.
10. MARIE-COURTOIS Théo, MANSOUR Juliette, AFP France, « "Matriochka", la nouvelle campagne de désinformation anti-ukrainienne à destination des médias occidentaux », 30 janvier 2024, AFP Factuel, https://factuel.afp.com/doc.afp.com.34H32VP.
11. VIGINUM, op .cit.
12. Ibid.
13. Ibid.
14. Insikt Group, « Operation Overload Impersonates Media to Influence 2024 US Election », 23 octobre 2024, Recorded Future, [en ligne], disponible sur : https://go.recordedfuture.com/hubfs/reports/ta-ru-2024-1023.pdf.
15. MAHIEDDINE Dounia, NASS Claire-line, AFP France, « La désinformation prorusse entre en scène sur le réseau social Bluesky », 13 janvier 2025, AFP Factuel, [en ligne], disponible sur : https://factuel.afp.com/doc.afp.com.36T86N6.
16. @antibot4navalny.bsky.social, publications du 30 mai 2025 sur Bluesky, [en ligne], disponible sur : https://web.archive.org/web/20250612230300/https://bsky.app/profile/antibot4navalny.bsky.social/post/3lqg5zjt23c2r.
17. KEMP Simon, « Digital 2024: Moldova », 23 février 2024, Data Reportal, [en ligne], disponible sur : https://datareportal.com/reports/digital-2024-moldova.
18. The Insider, « Russian bots from the “Matryoshka” network target EU summit in Moldova with fake videos impersonating The Insider and other media », 24 juin 2025, The Insider, [en ligne], disponible sur : https://theins.press/en/news/282450.
19. Check First et Reset.Tech, « Operation Overload, More Platforms, New Techniques, Powered by AI », 26 juin 2025, checkfirst.network, [en ligne], disponible sur : https://checkfirst.network/wp-content/uploads/2025/06/Overload%C2%A02_%20Main%20Draft%20Report_compressed.pdf.
20. Martin INNES, Daniel GRINNELL, Helen INNES, et al., « Normalisation et domestication de la désinformation numérique : les opérations informationnelles d’interférence et d’influence de l’extrême droite et de l’État russe en Europe », Hérodote, n° 177-178, 2020, [en ligne], disponible sur : https://doi.org/10.3917/her.177.0101.
21. Check First et Reset.Tech, « Operation Overload, More Platforms, New Techniques, Powered by AI », op. cit.
22. Ibid.
23. IENCA Marcello, « On Artificial Intelligence and Manipulation », Topoi, vol. 42, 2023, [en ligne], disponible sur : https://doi.org/10.1007/s11245-023-09940-3.
24. IRVING Doug, « Social Media Manipulation in the Era of AI », 29 août 2024, RAND, [en ligne], disponible sur : https://www.rand.org/pubs/articles/2024/social-media-manipulation-in-the-era-of-ai.html.
25. Insikt Group, op. cit.
26. The Insider, op.cit.
27. KIRBY Paul, « Pro-EU leader wins Moldova election despite alleged Russian meddling », 4 novembre 2024, BBC, [en ligne], disponible sur : https://www.bbc.com/news/articles/cz7w9dglzzlo.
28. MAITLAND Eva, ROACHE Madeline, LEE Alice, « La Moldavie : dernière cible de la Russie. La machine de propagande russe Matriochka choisit une nouvelle cible et lance 39 fausses affirmations visant la Moldavie en trois mois », 15 juillet 2025, NewsGuard, [en ligne], disponible sur : https://www.newsguardtech.com/fr/special-reports/russie-matriochka-propagande-moldavie/.
29. KIRBY Paul, THORPE Nick, « Romania's cancelled presidential election and why it matters », 6 décembre 2024, BBC, [en ligne], disponible sur : https://www.bbc.com/news/articles/cx2yl2zxrq1o.
30. ROSS Tim, POPOVICIU Andrei, « Russian interference claims hit Romania’s critical election on voting day », 18 mai 2025, Politico, [en ligne], disponible sur : https://www.politico.eu/article/high-early-turnout-as-romanians-vote-in-critical-election/.
31. Union européenne, Règlement sur les services numériques, 19 octobre 2022, [en ligne], disponible sur : https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32022R2065.
32. Check First et Reset.Tech, « Operation Overload, More Platforms, New Techniques, Powered by AI », op. cit.
33. Ibid.
34. Ibid.
35. DAO Linh-Lao, CARVALHO Nicolas, « Les "community notes" du réseau social X luttent-elles efficacement contre la désinformation ? », 19 septembre 2023, France Info, [en ligne], disponible sur : https://www.franceinfo.fr/vrai-ou-fake/vrai-ou-faux-les-community-notes-du-reseau-social-x-luttent-elles-efficacement-contre-la-desinformation_6051188.html.
36. @antibot4navalny.bsky.social, op. cit.
37. Transparency center, « Combating harmful misinformation », tiktok.com, [en ligne], disponible sur : https://www.tiktok.com/transparency/en-us/combating-misinformation/#GFCP.
38. DAO Linh-Lan, « "Sur TikTok, on est confronté assez rapidement à la désinformation" : une spécialiste des fake news explique pourquoi ce réseau social leur est propice », 15 mars 2025, France Info, [en ligne], disponible sur : https://www.franceinfo.fr/internet/reseaux-sociaux/tiktok/grand-entretien-sur-tiktok-on-est-confronte-assez-rapidement-a-la-desinformation-une-specialiste-des-fake-news-explique-pourquoi-ce-reseau-social-leur-est-propice_7121901.html.
39. Intelligence Online, « France, Russie, Ukraine, Telegram empêtré dans sa politique de modération à géométrie variable », 11 juillet 2025, Intelligence Online, [en ligne], disponible sur : https://www.intelligenceonline.fr/surveillance--interception/2025/07/11/telegram-empetre-dans-sa-politique-de-moderation-a-geometrie-variable,110476330-art.