« 48 pays pratiquent le trolling commandité par l’État »

Cet entretien a été réalisé le 20 mars 2019 dans le cadre du colloque « Les démocraties à l’épreuve des infox » organisé conjointement par l’INA et la BNF. Jane Lytvynenko est journaliste à BuzzFeed News.

Les infox doivent, comme tout contenu, être créées avant d’être partagées et d’éventuellement influencer les publics. Depuis quelques années, un genre de structure spécialisé dans ces manœuvres a émergé : les « fermes à trolls ». Éléments de réponse avec Jane Lytvynenko. par Xavier Eutrope

Publié le 11 avril 2019 — Mis à jour le 06 septembre 2021

Qu’est-ce qu’une « ferme à trolls » ?

Jane Lytvynenko : Lorsque nous parlons de fermes à trolls parrainées par l’État, nous parlons en réalité de personnes payées par des pays pour répandre la désinformation afin d’affecter le discours public et qui utilisent Internet essentiellement à des fins de propagande. On parle aussi de cybertroupes.

Depuis quand ces fermes existent-elles ?

Jane Lytvynenko : À notre connaissance, les premières fermes ont commencé à être exploitées en 2014. Mais avec le temps, nous en avons vu paraître de plus en plus dans le monde entier. Ainsi, par exemple, en 2017, l’Oxford Internet Institute a recensé 28 fermes à trolls parrainées par des États dans le monde entier. Toutefois, dans un rapport de suivi publié en 2018, nous avons constaté une forte croissance, de 28 à 48, du nombre de pays qui pratiquent le trolling commandité par l’État. Cela signifie que ce problème prend de plus en plus d’importance et que le phénomène est très probablement efficace.

Existe-t-il différents types de « fermes à trolls » ?

Jane Lytvynenko : Différents pays abordent la propagande en ligne de différentes manières. La Russie est bien entendu l’exemple le plus célèbre car ses méthodes sont les plus larges. Ce sont vraiment les pionniers dans ce domaine. Mais ce que nous constatons, c’est que certaines fermes à trolls parrainées par les États sont dirigées vers l’intérieur même des pays. Certains tentent d’influencer l’opinion et de diffuser de la propagande de façon plus directe, tandis que d’autres tentent d’attiser la colère sur certains enjeux, contre certains groupes ethniques ou certains conflits. Internet peut donc réellement être exploité sans fin par les fermes à trolls, tout comme nous-mêmes pouvons utiliser Internet de différentes façons.

Pourquoi nous intéressons-nous tant à ces structures ?

Jane Lytvynenko : Il n’y a pas de réponse simple à la question de savoir pourquoi nous en parlons autant, mais je pense que la réponse courte est : parce que ça fonctionne. Par exemple, nous avons assisté en 2014 aux premiers signes d’activité sur Facebook dans l’influence de l’opinion au Myanmar vis-à-vis des musulmans Rohingyas. En 2015, nous avons constaté que les Russes ont tenté d’influencer l’opinion ukrainienne après la révolution. Et en 2016, les choses ont vraiment dégénéré lorsque les fermes à trolls parrainées par des États étrangers se sont exportées vers l’Occident en s’implantant dans les démocraties et en tentant d’influencer les résultats d’élections démocratiques. À partir de ce moment-là, après que ces campagnes ont été découvertes, nous avons vraiment réalisé que cela se déroulait dans le monde entier : pas seulement à l’échelle locale, mais aussi à l’échelle internationale. Et maintenant, à nous de nous poser les questions suivantes : pourquoi est-ce efficace ? Comment cela fonctionne-t-il ? Et que pouvons-nous faire pour réduire l’impact de ces types de campagnes ?

Comment expliquer la puissance de ces « fermes à trolls » ?

Jane Lytvynenko : Réfléchissez à la façon dont vous interagissez avec les réseaux sociaux – vous allumez votre téléphone, vous ouvrez un site web et vous avez accès à des informations. Sur Instagram, c’est une image ; sur Twitter, un message ; sur Facebook, une publication. La question est : comment ces images sont-elles sélectionnées ? Comment savons-nous ce qui nous est présenté et qui nous le présente ? Nous n’avons pas vraiment de réponse à cette question car les algorithmes utilisés par les réseaux sociaux ne sont pas divulgués. Nous savons qu’ils sont adaptés à nos préférences, mais nous savons également que ces systèmes ne sont pas conçus pour les news : ils sont conçus pour partager des photos de bébés ou des photos de votre chien. Nous avons donc en substance le cocktail idéal pour propager de la désinformation. Nous ne savons pas pourquoi quelque chose est mis sous nos yeux mais nous avons généralement tendance à réagir et non à rechercher pourquoi nous voyons ce que nous voyons, ou si les informations nous sont présentées de manière exacte.

En tant qu’individus, nous pourrions tout à fait utiliser, reproduire les techniques des « fermes à trolls », n’est-ce pas ?

Jane Lytvynenko : Oui, c’est exact. L’une des choses les plus intéressantes selon moi à propos des fermes à trolls est qu’elles jouent sur nos émotions car ce sont elles qui nous poussent à réagir et à interagir physiquement avec Internet. Ainsi, par exemple, attiser la colère est beaucoup plus efficace que de présenter un rapport stérile sur l’économie ou le changement climatique. Et c’est précisément ce qui les rend si efficaces, car lorsque nous voyons quelque chose qui nous met en colère, nous voulons crier, argumenter, nous impliquer d’une façon ou d’une autre. C’est quelque chose que nous faisons en tant qu’individus. Les trolls le comprennent et utilisent la même technique.

Ces « fermes à trolls » n’opèrent-elles que sur Facebook ?

Jane Lytvynenko : Si nous parlons tant de Facebook, c’est que la plateforme compterait supposément deux milliards d’utilisateurs, soit plus de personnes que n’importe quel pays au monde. Cela représente un public énorme. Mais bien sûr, Facebook n’est pas le seul endroit où surviennent ces problèmes. Par exemple, nous savons que les algorithmes de recommandation de YouTube contribuent à la radicalisation, non seulement sur le plan politique, mais également dans des domaines tels que l’anti-vaccination. Twitter peut être très facilement manipulé grâce à l’utilisation de robots et de propagande par le biais de systèmes informatiques. Les canaux comme Instagram et Snapchat sont très visuels et donc très difficiles à étudier pour les chercheurs, ce qui signifie que certains de ces problèmes sont difficiles à détecter. Nous avons également constaté une augmentation de la désinformation dans les messages privés, phénomène accusé de provoquer des violences dans d’autres régions du monde. Il est encore plus difficile pour les journalistes et les chercheurs de repérer la désinformation dans les messageries car cela se produit dans des discussions de groupe.

Ce qui se passe, c’est que quelqu’un que vous aimez ou quelqu’un en qui vous avez confiance vous transfère quelque chose que vous transférez à quelqu’un d’autre. C’est un partage rendu privé. Il est très difficile pour nous de comprendre l’ampleur de ce phénomène car, à moins de faire partie de ce groupe, vous ne pouvez pas le voir. Ainsi, cet écosystème fonctionne car chaque plateforme offre des moyens nouveaux et intéressants de menacer notre environnement informationnel.

Quelles est exactement la responsabilité des réseaux sociaux ?

Jane Lytvynenko : Au sein des réseaux sociaux, je dirais que l’une des principales responsabilités est d’abord d’identifier les mauvais acteurs, de manière proactive plutôt que réactive, et d’essayer de les écarter du réseau. Aux États-Unis, il y a un grand débat sur la liberté d’expression, mais celle-ci ne signifie pas nécessairement que tout le monde a le droit d’exposer son message à un millier de personnes. Autre chose que les réseaux sociaux pourraient faire, mais ne font pas, c’est dévoiler le fonctionnement de leurs algorithmes. Des chercheurs du MIT ont découvert ce qu’ils appellent une « étiquette nutritionnelle » pour algorithmes. Ce serait quelque chose qui nous indiquerait le poids et l’ampleur de la chose. Nous savons qu’un grand nombre de personnes que Facebook classe politiquement comme étant de gauche ou de droite, d’extrême gauche ou d’extrême droite, ne sont en réalité pas d’accord avec la façon dont Facebook les identifie. Mais parce que nous ne savons pas comment s’opère cette classification, parce que nous n’avons pas vraiment le moyen de la changer ou de dire à Facebook « Tiens, mes opinions politiques ont un peu changé, tu pourrais faire une mise à jour ? », nous n’avons aucun moyen de contrôler l’environnement informationnel dans lequel nous nous trouvons.

Pensez-vous que la situation puisse évoluer dans le bon sens ?

Jane Lytvynenko : Même s’il y a de la négativité sur Internet, que ce soit par la désinformation ou par le ciblage de communautés vulnérables, la Toile a également permis aux gens de s’exprimer et a offert à beaucoup de communautés auparavant ignorées le moyen de s’exprimer. Je pense que nous sommes actuellement dans une période de transition où nous comprenons que quelque chose ne va pas. Nous comprenons que cette bête que nous avons créée doit être apprivoisée. Et je pense que si nous prenons vraiment cela au sérieux, si les régulateurs, les entreprises de technologie et les utilisateurs individuels le prennent très au sérieux et à cœur, alors oui, je suis optimiste. Mais si nous ignorons le problème et espérons qu’il disparaîtra, ou si nous décidons individuellement que « non, cela ne me concerne pas, je suis intelligent, je ne me laisse pas avoir par ce genre de chose », alors ce problème persistera et aura une incidence sur le fonctionnement de notre démocratie.

Xavier Eutrope

Xavier Eutrope

Journaliste à La Revue des médias

Répondre à Christophe Desmaris Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *