Modération et « trolls » – Comment gérer les commentaires indésirables ?

La modération des commentaires « indésirables » sur Internet est un vrai casse-tête pour les éditeurs de contenus. Dans cet article, je vous propose un petit tour d’horizon de différentes initiatives dans le domaine.

Que faire face aux « trolls » sur Internet ? Que faire lorsque l’on est confrontés à un commentaire qui n’est pas constructif, voire qui est hors-la-loi, « destructeur », insultant, violent ou haineux ?

Dans un monde idéal, je crois que le mieux serait de répondre à ces commentaires et de les déconstruire minutieusement, en argumentant de manière constructive. Dans ce même monde, les publics de ces échanges liraient les commentaires et leurs réponses et se forgeraient une idée nuancée des problématiques évoquées.

Comment dialoguer de manière constructive ?

Néanmoins, comme certaines et certains d’entre vous m’en ont déjà fait part, vous pouvez constater que moi-même, je ne me prête pas à cet exercice périlleux. Concrètement, je ne permets pas les commentaires sur mon site. C’est très chronophage. C’est un choix par défaut. Je n’ai pas les ressources (le temps et l’énergie) pour répondre à toutes les interpellations plus ou moins constructives quant à mes articles. Je réponds par contre volontiers aux mails et édite volontiers mes contenus lorsque des arguments et nuances me sont proposés. Je retranscris d’ailleurs régulièrement des messages qui me sont envoyés dans la section de commentaires.

Le choix de ne pas autoriser les commentaires rejoint par exemple le choix du groupe de presse Roularta en 2017.

> Vincent Genot : Propos haineux et racistes : Roularta ferme les commentaires sur ses sites (2017)

La désactivation ou la « censure » en amont des commentaires n’est toutefois pas la seule voie qui s’offre aux éditeurs de contenus et autres « community managers ».

> Internet : la fin des commentaires (2015)

Des moyens en amont

En amont, comme nous l’avons dit, il possible de se prémunir des commentaires indésirables tout simplement en les interdisant. Il s’agit en quelque sorte d’une forme de « censure », d’interdiction totale de réagir pour s’exprimer. Cette solution a l’avantage d’être peu coûteuse, techniquement et humainement, mais par contre elle nous met en situation de contradiction performative si l’on se présente comme un défenseur de la liberté d’expression (et ce bien que cette liberté n’autorise pas à tout dire sans conséquence !), et surtout elle est seulement partielle. En effet, elle n’empêche pas les commentateurs de s’en donner à cœur joie sur les médias sociaux, sur d’autres plateformes ou sur des forums. De ce fait, parler de « censure »n’est pas vraiment adéquat !

> [Podcast] On ne peut plus rien dire ! La liberté d’expression (2020)

Une manière moins radicale de « filtrer » les commentaires indésirables consiste à ne pas autoriser le pseudonymat ou l’anonymat. Concrètement, le fait d’utiliser un pseudo peut contribuer à désinhiber une forme d’expression destructrice. Plusieurs sites obligent désormais à s’identifier (sur le site ou via un compte sur un réseau social par exemple) avant de commenter. Problème : il est très facile de contourner cette règle en s’inventant une identité fictive, par exemple.

La modération a priori consiste enfin à ne valider des commentaires qu’après relecture. Le problème majeur de cette solution est qu’elle est assez chronophage. Certains dispositifs techniques automatisent en partie cette activité par exemple en bannissant automatiquement un certain nombre de mots considérés comme racistes, homophobes, sexistes, insultants ou violents (ou en avertissant en tout cas lorsque des thèmes « sensibles » sont abordés). Cela ne marche néanmoins pas face à des messages dont le contenu est moins explicite, avec l’ironie, et puis il est relativement facile de contourner cette méthode également (par exemple, en écrivant P$ au lieu de PS, en écrivant « les muzzs » au lieu de « les musulmans », etc.).

Dans le prolongement de cette piste, les idées ne manquent pas pour tâcher de s’assurer que les interventions soient constructives. Face aux personnes qui commentent sans lire les contenus et utilisent les espaces de commentaires comme déversoirs, un ami me disait imaginer par exemple une sorte de mini quiz avec des questions sur l’article auxquelles il faut obligatoirement répondre correctement avant de commenter. Il s’agit quelque part de différer le commentaire et d’essayer de sortir l’usager d’une posture de réactivité immédiate. Ce type d’initiative forcerait les personnes à se baser un minimum sur le fond et les mettrait davantage dans une posture participative.

Des moyens en aval

Une modération peut aussi se faire a posteriori, en aval des commentaires. C’est ainsi qu’un modérateur peut par exemple procéder à la suppression des commentaires indésirables. Plusieurs médias sociaux, comme Facebook par exemple, utilisent ce procédé, sur base de signalements (impliquant donc souvent la communauté des utilisateurs). Une des limites de ce mode de fonctionnement est qu’en plus d’être appliqué de manière très problématique, cela fait encourir le risque de faire de la publicité indirecte aux propos supprimés (« on ne peut plus rien dire » + Effet Streisand). Idem pour le fait de bannir un utilisateur (souvent sur base de son adresse IP).

Faut-il censurer les propos racistes ?

Une autre manière de gérer les commentaires a posteriori consiste à répondre à ceux-ci. Néanmoins, comme nous l’avons dit ci-dessus, ce travail est très chronophage. Il suppose par ailleurs d’être assez confiant sur ses propres facultés d’argumentation et sur les aptitudes des publics de l’échange à s’en approprier ou non le propos.

Le principe d’asymétrie des idioties ou loi de Brandolini, plus connu sous sa dénomination originale de bullshit asymmetry principle, formulé publiquement pour la première fois en janvier 2013 par Alberto Brandolini, un programmeur italien, énonce que :

« La quantité d’énergie nécessaire pour réfuter des idioties est supérieure d’un ordre de grandeur à celle nécessaire pour les produire. »

Il en ressort que la désinformation a un avantage important, rétablir la vérité étant particulièrement coûteux.

Bullshit (page Wikipédia)

https://www.youtube.com/watch?v=yrKGnYVvUo4

De plus, l’un des risques est de « nourrir le troll », en lui donnant de l’attention, et du coup de le « faire grandir », ne serait-ce qu’en visibilité. (Cf. Don’t feed the troll (Rational Wiki)).

> Hubert Guillaud : Faut-il combattre les trolls ? (2014)

De ce fait, Linus Neumann invite à considérer des solutions comme le Shadowban (c’est-à-dire bannir un utilisateur sans que celui-ci ait conscience qu’il est banni) ou encore ce qu’il appelle le Hellbanning :

« Le rageux qui a écrit le commentaire le voit posté sur la page, mais tous les autres visiteurs ne le voient pas. Et c’est comme ça que vous enlevez aux gens ce qu’ils veulent : des réactions. Ils écrivent tout seuls sur leur île déserte mais n’obtiennent aucune réaction. Psychologiquement, c’est le moyen le plus efficace pour décourager quelqu’un de continuer à poster » (L’art du trolling, ou comment troller les trolls (2015))

Jérome Bosch - Enfer - volet de droite du triptyque du Jardin des Délices (1494 - 1505).

Jérome Bosch – Enfer – volet de droite du triptyque du Jardin des Délices (1494 – 1505).

Neumann propose d’autres moyens dissuasifs faciles à mettre en œuvre techniquement, par exemple sur base de mots-clés (ce qui rejoint une méthode de modération a priori).

The troll-throttle. Linus Neumann a développé un système qui pousse les personnes qui veulent commenter à remplir un captcha. Une fois le commentaire envoyé, son outil calcule la probabilité que le message soit celui d’un troll. Grâce à cette probabilité, et indépendamment du fait que le captcha ait été bien rempli ou non, le troll se retrouve à devoir remplir un captcha à nouveau, et ce jusqu’à épuisement. Le hacker confie que le record est de quinze tentatives avant abandon (L’art du trolling, ou comment troller les trolls (2015))

> Jacques Pezet, L’art du trolling, ou comment troller les trolls (2015)

Dans la même optique, il existe des bots Internet programmés pour répondre automatiquement des arguments prédéfinis à certains types de commentaires. Le but de ces robots est d’épuiser les trolls dans une argumentation sans fin : ils se retrouvent confrontés à des « appâts » qui ne les lisent même pas et les contredisent inlassablement en boucle. Ce temps passé à « débattre face à un mur » ne l’est pas à alpaguer d’autres utilisateurs.

D’autres méthodes font le pari de l’intelligence collective en essayant de valoriser les apports positifs (ou de minimiser l’impact des commentaires négatifs) par des systèmes de tags ou de notation, par exemple, faisant office de « filtres qualitatifs » (exemples dans Internet : la fin des commentaires ? (2015)).

> Antoine Bordes (propos recueillis par Morgane Tual) : « Sur Facebook, il y a tant de contenus qu’on ne peut pas se passer d’intelligence artificielle » (2018)

Notons qu’en aval, il y a aussi la possibilité de sanction légale. Comme le fait remarquer Vincent Glad en 2018, nous assistons aux premières « grandes » condamnations symboliques de propos tenus sur Internet. Il est enfin rappelé que des insultes, diffamations, calomnies, menaces ou autres propos violents ou haineux ne sont pas autorisés, et qu’Internet fait partie de la réalité. Ce n’est pas « moins grave » parce que c’est sur Internet. Ce n’est pas « virtuel » parce que c’est sur Internet.

> Vincent Glad, Nadia Daam : le revanche de la réalité (2018)

Les auteurs, une fois confrontés aux conséquences de leurs infractions pénales, affichent souvent une posture bien moins présomptueuse que derrière leur pseudonyme et leur écran.

> Charlotte Namura partage le message privé violent et misogyne d’un internaute (et sa réponse) (2018)

Un problème majeur de la voie judiciaire est qu’elle est coûteuse, en temps, en argent et en énergie. De plus, notamment en ce qui concerne des mineurs, je crois qu’il y a un risque de « criminaliser » à outrance des comportements dans un contexte face auquel ils n’ont pas été éduqués (à ce sujet, cf. Photos intimes d’adolescents sur Internet : pour une éducation au consentement).

Enfin, le modèle de contribution à Wikipédia illustre encore une autre façon de faire. La structure est extrêmement normée, codifiée et contrôlée par différents niveaux de modération et des possibilités de discussion. Cela me semble être une piste intéressante, notamment en termes éducatifs.

Peut-on faire confiance à Wikipédia ?

De la pédagogie, encore

J’en reviens au propos d’introduction de ces stratégies : il s’agit globalement davantage d’une « lutte anti symptômes ». Pour bien faire, à mon sens, cela ne suffit pas de cacher, supprimer ou déconstruire des commentaires indésirables.

Il est important d’aller au-delà, c’est-à-dire de favoriser des échanges harmonieux et constructifs en ligne, et ce notamment à travers une prise de parole et une posture éducative.

> En 2012, j’avais salué un effort pédagogique en ce sens, par Dorian De Meêus, dans La Libre : Comme nous, modérez vos commentaires… (2012)

Pour aller plus loin (et de manière non-exhaustive) :

> Cyrille Frank : Médias, ce n’est pas le moment d’abandonner les commentaires, ni l’interaction avec vos lecteurs ! (2018), Commentaires, réactions, interactions : pas le moment de les lâcher ! (2018)

> Documentaire Les nettoyeurs du Web – The Cleaners (Arte, 2018)

> Média Animation asbl, Entre discours de haine et liberté d’expression. Les enjeux de la participation en ligne dans les médias belges francophones (2017)

> Dossier : lutter contre les discours de haine – Ressources et bibliographie

> Comment dialoguer de manière constructive ? (2018)

Lutter contre la haine de l’autre

Comment dialoguer de manière constructive ?

2 commentaires

  1. [Version raccourcie] Comment gérer les « trolls » ?

    La modération des commentaires « indésirables » sur Internet est un vrai casse-tête pour les éditeurs de contenus. Tour d’horizon des initiatives dans le domaine.

    Dans un monde idéal, le mieux serait de répondre à ces commentaires et de les déconstruire en argumentant de manière constructive. Les publics de ces échanges liraient les échanges et se forgeraient une idée nuancée des problématiques évoquées. Dans la pratique, cette solution est chronophage et un peu candide.

    Filtrer les commentaires en amont ? Il est possible de se prémunir des commentaires indésirables tout simplement en les désactivant. Cette solution rejoint par exemple le choix du groupe de presse Roularta en 2017. Elle a l’avantage d’être peu coûteuse, techniquement et humainement. En revanche, elle manifeste peu d’ouverture à l’expression citoyenne et n’empêche pas les commentateurs de s’en donner à cœur joie sur les médias sociaux, sur d’autres plateformes ou sur des forums. Autre manière : ne pas autoriser le pseudonymat ou l’anonymat. Plusieurs sites obligent à s’identifier avant de commenter. Problème : il est très facile de contourner cette règle en s’inventant une identité fictive. Par ailleurs, afficher son identité réelle n’empêche pas certains de tenir des propos destructeurs.

    La modération a priori consiste enfin à ne valider des commentaires qu’après relecture. Cette solution prend du temps. Certains dispositifs techniques automatisent en partie cette activité par exemple en bannissant d’office un certain nombre de mots considérés comme racistes, homophobes, sexistes, insultants ou violents. Toutefois, ces filtres automatiques ne fonctionnent pas face à des messages dont le contenu est moins explicite, avec l’ironie, et puis il est facile de les contourner (par exemple, en écrivant P$ au lieu de PS, en écrivant « les muzzs » au lieu de « les musulmans », etc.).

    D’autres dispositifs sont imaginés pour favoriser des interventions constructives. Certains proposent par exemple une sorte de mini quiz avec des questions auxquelles il faut obligatoirement répondre correctement avant de commenter. Cela forcerait les personnes à se baser un minimum sur le fond et les mettrait davantage dans une posture participative.

    Une modération en aval des commentaires ? Un modérateur peut par exemple procéder à la suppression des commentaires indésirables. Plusieurs médias sociaux, comme Facebook par exemple, utilisent ce procédé sur base de signalements (impliquant donc la communauté des utilisateurs). Ce mode de fonctionnement fait encourir le risque de promouvoir indirectement les propos supprimés ou l’utilisateur banni (technique de victimisation).

    Nous l’avons dit, une autre manière de gérer les commentaires a posteriori consiste à répondre à ceux-ci. En plus de coûter du temps, ce travail suppose d’être assez confiant sur ses propres facultés d’argumentation et sur les aptitudes des publics de l’échange à s’en approprier ou non le propos. L’un des risques est de « nourrir le troll », en lui donnant de l’attention, et du coup de le « faire grandir », ne serait-ce qu’en visibilité.

    De ce fait, il existe des solutions techniques un peu plus élaborées, comme par exemple le Shadowban, c’est-à-dire le fait de bannir un utilisateur ou masquer ses propos sans que celui-ci ait conscience qu’il est banni ou masqué. Dans une optique similaire, il existe des « bots Internet » programmés pour répondre automatiquement des arguments prédéfinis à certains types de commentaires. Le but de ces robots est d’épuiser les trolls dans une argumentation sans fin : ils se retrouvent confrontés à des « appâts » qui les contredisent inlassablement en boucle, sans les lire. Ce temps passé à « débattre face à un mur » ne l’est pas à alpaguer d’autres utilisateurs. D’autres méthodes font le pari de l’intelligence collective en essayant de valoriser les apports positifs par des systèmes de tags ou de notation, par exemple, faisant office de « filtres qualitatifs ».

    Notons qu’il y a aussi la possibilité de sanction légale. Nous assistons aux premières « grandes » condamnations symboliques de propos tenus sur Internet. Problème majeur : la voie judiciaire est coûteuse en temps, en argent et en énergie. De plus, notamment en ce qui concerne des mineurs, il y a un risque de « criminaliser » à outrance des comportements dans un contexte face auquel ils n’ont pas été éduqués.

    Enfin, le modèle de contribution à Wikipédia illustre encore une autre façon de faire. La structure est extrêmement normée, codifiée et contrôlée par différents niveaux de modération et des possibilités de discussion. Cela me semble être une piste intéressante, notamment au niveau éducatif.

    Toutes ces stratégies relèvent globalement d’une « lutte anti symptômes ». Pour bien faire, cela ne suffit pas de cacher, supprimer ou déconstruire des commentaires indésirables. Il convient d’aller au-delà, de favoriser des échanges harmonieux et constructifs, notamment à travers une prise de parole citoyenne et une posture éducative…

Les commentaires sont fermés.