Quand le badminton devient un discours haineux : la dérive de la modération YouTube

Au début du mois d’avril 2026, un créateur français de YouTube — pseudonyme « La chaîne de la Vérité » — publie une vidéo de quinze minutes pour annoncer qu’il quitte la plateforme. Il vient de recevoir un avertissement (« warning ») pour discours de haine, qu’il finira par faire annuler après deux heures de discussion avec un agent humain du support. La séquence haineuse incriminée : à la 1re minute 57 d’une vidéo, il évoquait le badminton et le fait que « les muscles du mollet n’intéressent pas les femmes ». L’algorithme y avait vu un propos de haine. Le créateur, qui dit avoir déjà supprimé volontairement plus de 800 vidéos de sa chaîne pour anticiper les sanctions, conclut : « YouTube n’est plus une place safe. YouTube est une place où règne la censure folle, indiscriminée, incompréhensible, d’algos complètement déglingués et d’humains qui ne rétablissent pas les préjudices que nous vivons. » Et il s’en va. Son cas est anecdotique, ses comparaisons avec Galilée et Socrate sont déplacées — mais il décrit, à hauteur d’homme, un phénomène structurel qui touche aujourd’hui des dizaines de milliers de créateurs francophones, sur des sujets autrement plus sérieux que le badminton.

L’algorithme, juge sans procès

Le mécanisme de modération de YouTube repose sur trois étages : un algorithme automatique qui scrute texte, image, son et titre ; un système de signalements communautaires ; et, en dernier recours, une équipe humaine censée arbitrer les cas litigieux. Dans la pratique, comme l’ont documenté de nombreux créateurs francophones depuis trois ans, c’est l’algorithme qui décide, et l’algorithme qui se trompe. Il se trompe en condamnant des contenus inoffensifs ; il se trompe parfois aussi en laissant passer des contenus problématiques. Mais surtout, sa logique est opaque : ni les créateurs sanctionnés, ni les chercheurs, ni les autorités de régulation européennes ne disposent à ce jour du détail des critères d’application.

Les exemples se sont accumulés. La chaîne Mamytwink, spécialisée dans la vulgarisation historique, s’est vu interdire aux moins de 18 ans une vidéo utilisant la photographie The Terror of War — la fameuse « petite fille au napalm » présente dans tous les manuels scolaires français — pour « sexualisation de mineurs ». Le vulgarisateur historique Nota Bene a vu démonétiser des vidéos liées au mois des fiertés, alors que YouTube encourageait simultanément les créateurs à aborder ces thématiques. Le créateur Jean-Baptiste Toussaint, fondateur de la chaîne « Tales From The Click », a vu purement et simplement supprimer une vidéo sur Kurt Cobain parce qu’il y mentionnait le suicide du chanteur. Le streamer Aypierre a documenté la démonétisation automatique des termes « ricains » ou « du bled », classés comme « profanités extrêmes » par l’algorithme. L’équipe de la chaîne Histoires de guerre a publiquement reconnu être contrainte de publier ses épisodes en mode « non répertorié » plusieurs jours avant leur sortie officielle, tant le risque qu’une vidéo soit démonétisée a posteriori — alors que sa production a coûté plusieurs dizaines de milliers d’euros — menace désormais l’économie même de la création.

À ces cas s’ajoutent ceux, plus politiques, des chaînes traitant d’armes à feu, de chasse, de défense, ou de questions militaires. L’Union Française des amateurs d’Armes a recensé en 2023 puis 2025 une dégradation continue : démonétisations automatiques, suppression de partenariats commerciaux, mise en mode restreint des vidéos consacrées aux armes — alors que les vidéos « anti-armes », elles, restent visibles. Le journaliste américain Ian McCollum, dont la chaîne Forgotten Weapons fait référence mondiale en matière d’histoire de l’armement, en mode restreint ne donne plus à voir que ses vidéos sur les chars et les avions ; ses analyses techniques d’armes anciennes, pourtant rigoureuses et didactiques, ont été progressivement effacées du domaine accessible. Pour les chaînes francophones consacrées au tir sportif ou à la chasse, le pronostic est simple : soit elles s’autocensurent, soit elles disparaissent.

Le modèle économique, racine du problème

Pour comprendre ce qui se joue, il faut quitter le registre du « complot anti-liberté d’expression » et regarder le modèle économique de la plateforme. YouTube est ce qu’on appelle une ad tech company, une entreprise dont l’activité consiste à vendre de l’espace publicitaire à des annonceurs. Les créateurs sont rémunérés par une fraction de ces revenus. La règle du jeu, dès lors, est simple : tout contenu susceptible d’indisposer un annonceur — Coca-Cola, L’Oréal, Renault, BNP Paribas — sera démonétisé, voire supprimé, par précaution.

YouTube l’a d’ailleurs assumé publiquement, lors d’une polémique en 2018 sur la démonétisation de vidéos consacrées à l’endométriose, à l’IVG ou au cancer du sein : « Certains sujets, comme l’IVG ou le viol, sont importants et peuvent être débattus, mais nous avons entendu de la part des annonceurs des réticences à ce que leurs marques soient associées à ce contenu. » Tout est dit. Ce qui dicte la modération, ce n’est ni la loi, ni la moralité publique, ni même l’éthique du débat démocratique. C’est la sensibilité commerciale supposée d’un département marketing à Londres ou à San Francisco. Le « contenu safe » est devenu, dans la novlangue de la plateforme, le synonyme de « contenu vendable ».

D’où une cascade d’absurdités. Le mot « merde » a été démonétisé entre janvier et mars 2023, avant que YouTube ne fasse marche arrière sous la pression des créateurs francophones. Des locutions parfaitement neutres comme « du bled » sont restées classées comme « profanités extrêmes ». Des thématiques scolaires — la guerre, la mort, le suicide d’une figure historique — sont devenues des terrains minés. Et sur les questions politiquement chargées, c’est encore plus simple : la plateforme préfère, par sécurité, étouffer tout ce qui ne ressemble pas à un consensus médiatique mainstream.

L’autocensure préventive, ou la liberté d’expression rongée de l’intérieur

Le plus grave n’est pas tant la censure visible — un avertissement, une démonétisation, une suppression — que ce qu’elle produit chez les créateurs eux-mêmes : l’autocensure préventive. Le créateur de la « Chaîne de la Vérité » l’exprime avec une justesse involontaire : « Tous les contenus qui seraient les meilleurs contenus qu’on aimerait entendre, ils ont déjà été cancellés. Vous n’entendez que ce que les créateurs de contenu pensent que YouTube va autoriser aujourd’hui et demain. Parce qu’il faut anticiper ce que les algos vont penser demain. »

C’est ce que l’on appelle, dans la sociologie classique de la liberté d’expression, le chilling effect — l’effet glaçant. Une régulation n’a pas besoin d’être brutale pour être efficace ; il lui suffit d’être imprévisible. Quand un créateur ne sait jamais à l’avance si son prochain mot, son prochain titre, sa prochaine miniature, déclencheront un avertissement, il finit par se censurer en amont, sur des sujets qu’il aurait pourtant traités. Il évite tel mot. Il choisit telle formulation édulcorée. Il renonce à telle vidéo. La plateforme n’a même plus besoin de le sanctionner : il s’est déjà sanctionné lui-même.

L’effet est démultiplié par la rétroactivité des règles. Une vidéo publiée en 2022, parfaitement conforme aux règles de l’époque, peut être démonétisée en 2026 parce qu’un mot prononcé est désormais classé comme problématique. Le créateur qui a investi des dizaines de milliers d’euros dans la production d’une enquête historique se retrouve donc à devoir parier non seulement sur la modération actuelle, mais sur la modération future, dont nul ne connaît les contours. C’est le règne de l’incertitude réglementaire absolue. Et c’est exactement ce qui décourage les créateurs ambitieux, ceux qui voudraient produire des enquêtes longues, des documentaires fouillés, des analyses politiques substantielles.

Le DSA, ou la régulation qui ne régule pas

L’Union européenne a, certes, adopté en octobre 2022 le Règlement sur les services numériques (Digital Services Act, ou DSA), entré pleinement en application le 17 février 2024. Ce texte impose aux très grandes plateformes — dont YouTube, désignée parmi les 17 premières — un certain nombre d’obligations : transparence des algorithmes, justification des décisions de modération, mécanismes internes de réclamation, possibilité de recours externes, audits indépendants, rapports annuels. À l’échelle des principes, c’est considérable. À l’échelle de la pratique, c’est, pour l’instant, un échec.

L’avocate Anne Cousin, lors d’une table ronde tenue à Paris le 9 avril 2026, l’a formulé avec la concision du droit : « la plateforme devient juge si le contenu est manifestement illicite ; à l’inverse, le juge devient un peu modérateur dans son action. » L’inversion est inquiétante. Dans une démocratie classique, c’est le juge — magistrat indépendant, formé, soumis à un contrôle hiérarchique — qui apprécie la licéité d’un propos. Avec le DSA, on a confié cette charge initiale aux plateformes, et le juge n’intervient qu’à titre de recours, avec des délais de plusieurs mois ou années pour des contenus dont la durée de vie médiatique se compte en jours.

Les sanctions se mettent pourtant en place. Le 5 décembre 2025, la Commission européenne a infligé sa première amende au titre du DSA : 120 millions d’euros à la plateforme X, pour défaut de transparence publicitaire et refus d’accorder aux chercheurs l’accès à certaines données. Le 26 janvier 2026, une enquête a été ouverte contre Grok, le chatbot intégré à X, pour usage problématique de l’IA. Une vingtaine d’autres procédures sont en cours, visant TikTok, Meta, et plusieurs autres très grandes plateformes. Le mouvement est lancé. Mais les premières sanctions concernent la désinformation politique et la protection des mineurs, jamais — ou presque — l’arbitraire algorithmique de la modération à l’égard des créateurs. Le DSA prévoit pourtant, à son article 17, qu’un contenu démonétisé ou supprimé doit faire l’objet d’un « exposé des motifs ». Sur le terrain, les exposés des motifs reçus par les créateurs francophones se résument à une formule type — « votre contenu n’a pas suivi notre politique de discours haineux » — sans que la séquence exacte ni le critère exact ne soient communiqués.

Une question politique, plus que technique

Au fond, la question posée par YouTube dépasse de très loin l’indignation d’un créateur frustré ou la frustration légitime de Mamytwink, de Tales From The Click ou de la chaîne Histoires de guerre. Elle touche à la nature même de l’espace public démocratique au XXIe siècle. Quand une plateforme privée américaine concentre, à elle seule, la majorité des contenus vidéo consultés en France — bien plus que les chaînes de télévision réunies —, et que cette plateforme applique des règles de modération définies par un département marketing en Californie sur la base d’une logique d’optimisation publicitaire, alors le débat public français est devenu, qu’on le veuille ou non, le sous-produit d’un algorithme commercial étranger.

La question n’est plus de savoir si YouTube a le droit de modérer ses contenus — il l’a, en tant qu’hébergeur, dans le cadre de ses conditions générales d’utilisation. La question est de savoir jusqu’à quel point une démocratie peut accepter de déléguer à un acteur privé étranger la frontière entre ce qui est dicible et ce qui ne l’est plus. Le DSA est une première tentative de réponse, encore très imparfaite. La création de plateformes alternatives européennes — projet régulièrement évoqué, jamais sérieusement financé — en serait une autre. Le développement de plateformes payantes par abonnement, qui libèrent les créateurs de la dépendance publicitaire, en est une troisième : Substack, Patreon, et les diverses solutions de membership offrent désormais aux créateurs un modèle économique où l’éditeur n’est plus le marketing de Coca-Cola, mais l’abonné lui-même. Et c’est précisément ce vers quoi se dirigent, l’un après l’autre, les créateurs francophones lassés des warnings algorithmiques.

Un mot pour finir : sur le « pauvre chéri » et le créateur français

Il faut, pour être juste, mettre les choses à leur place. Le créateur de la « Chaîne de la Vérité » qui se compare à Galilée pour avoir parlé du badminton n’aide pas la cause qu’il défend. La grandiloquence dessert toujours les justes combats. Mais derrière la maladresse de l’expression individuelle, il y a un fait collectif : des dizaines de milliers de créateurs francophones travaillent aujourd’hui sous une tutelle algorithmique opaque, capable à tout moment de réduire à néant des années d’investissement intellectuel et financier, sans procédure, sans contradiction, sans recours effectif. Cela vaut pour le vulgarisateur historique, pour le journaliste indépendant, pour l’analyste politique, pour le formateur professionnel. Cela vaut, demain, pour tout journaliste citoyen qui aurait l’ambition de produire un contenu un peu pointu, un peu dérangeant, un peu hétérodoxe.

L’agent de support de YouTube, dans le récit du créateur, écrit dans un français hésitant : « Salut, je sais que c’est important pour toi. » La formule est, à elle seule, une métaphore. Pour toi. Pas pour le débat public. Pas pour la diversité des voix. Pas pour la démocratie. Pour toi tout seul, dans ton coin, avec ton problème individuel. C’est exactement ainsi que la plateforme conçoit son rapport au créateur : un client mécontent, à qui l’on accorde, parfois, par compassion, le rétablissement d’un avertissement injustement infligé. Ce n’est pas comme cela que se gouvernent des espaces publics démocratiques. C’est comme cela qu’on gère un service après-vente.

La vraie question, désormais, est de savoir si la France et l’Europe auront le courage d’aller au bout de la logique du DSA — c’est-à-dire d’imposer aux plateformes une obligation effective de motiver leurs décisions, de respecter le pluralisme, et de soumettre leurs algorithmes à un contrôle indépendant —, ou si elles se contenteront, comme jusqu’ici, de quelques amendes spectaculaires sur des dossiers symboliques pendant que la modération de fond continue, jour après jour, à éroder silencieusement la liberté d’expression des créateurs francophones. La gendarmerie, comme tant d’institutions de l’espace public, observe cette évolution avec inquiétude : car ce qui se joue dans les warnings YouTube se joue, en réalité, dans la définition même de ce que les Français peuvent dire, lire, et entendre demain dans leur propre langue.


Sources principales :
– « La chaîne de la Vérité », vidéo « Je me casse, trop de censure », avril 2026.
– « YouTube, un espace d’expression sous surveillance algorithmique », Blog du Modérateur, septembre 2025.
– « YouTube : les gros mots sont interdits et les créateurs passent à la caisse », Journal du Geek, janvier 2023.
– « YouTube réagit après les démonétisations abusives des vidéos », IntoTheRing, mars 2023.
– « YouTube censure les chaînes d’armes à feu », Union Française des amateurs d’Armes, février 2023.
– « Le règlement sur les services numériques (DSA) vise une responsabilisation des plateformes », Vie Publique, août 2025.
– « La modération des contenus deux ans après le Digital Services Act : quels enseignements pour demain ? », Chaire Régulation Tech CNAM, avril 2026.
– « Le DSA et la liberté d’expression sur les réseaux sociaux », Maître François Viangalli, Village de la Justice, mai 2025.
– « DSA : quelles obligations pour les plateformes ? », Mathias Avocats, avril 2026.
– Communications de la Commission européenne, décembre 2025 et janvier 2026.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *