Modération et « trolls » – Comment gérer les commentaires indésirables ?

La modération des commentaires « indésirables » sur Internet est un vrai casse-tête pour les éditeurs de contenus. Dans cet article, je vous propose un petit tour d’horizon de différentes initiatives dans le domaine.

Représentation du « troll » sur Internet

Que faire face aux « trolls » sur Internet ? Que faire lorsque l’on est confrontés à un commentaire qui n’est pas constructif, voire qui est hors-la-loi, « destructeur », insultant, violent ou haineux ?

Dans un monde idéal, je crois que le mieux serait de répondre à ces commentaires et de les déconstruire minutieusement, en argumentant de manière constructive. Dans ce même monde, les publics de ces échanges liraient les commentaires et leurs réponses et se forgeraient une idée nuancée des problématiques évoquées.

Comment dialoguer de manière constructive ?

Néanmoins, comme certaines et certains d’entre vous m’en ont déjà fait part, vous pouvez constater que moi-même, je ne me prête pas à cet exercice périlleux. Concrètement, je ne permets pas les commentaires sur mon site. C’est très chronophage. C’est un choix par défaut. Je n’ai pas les ressources (le temps et l’énergie) pour répondre à toutes les interpellations plus ou moins constructives quant à mes articles. Je réponds par contre volontiers aux mails et édite volontiers mes contenus lorsque des arguments et nuances me sont proposés. Je retranscris d’ailleurs régulièrement des messages qui me sont envoyés dans la section de commentaires.

Le choix de ne pas autoriser les commentaires rejoint par exemple le choix du groupe de presse Roularta en 2017.

> Vincent Genot : Propos haineux et racistes : Roularta ferme les commentaires sur ses sites (2017)

La désactivation ou la « censure » en amont des commentaires n’est toutefois pas la seule voie qui s’offre aux éditeurs de contenus et autres « community managers ».

> Internet : la fin des commentaires (2015)

Des moyens en amont

En amont, comme nous l’avons dit, il possible de se prémunir des commentaires indésirables tout simplement en les interdisant. Il s’agit en quelque sorte d’une forme de « censure », d’interdiction totale de réagir pour s’exprimer. Cette solution a l’avantage d’être peu coûteuse, techniquement et humainement, mais par contre elle nous met en situation de contradiction performative si l’on se présente comme un défenseur de la liberté d’expression (et ce bien que cette liberté n’autorise pas à tout dire sans conséquence !), et surtout elle est seulement partielle. En effet, elle n’empêche pas les commentateurs de s’en donner à cœur joie sur les médias sociaux, sur d’autres plateformes ou sur des forums.

Une manière moins radicale de « filtrer » les commentaires indésirables consiste à ne pas autoriser le pseudonymat ou l’anonymat. Concrètement, le fait d’utiliser un pseudo peut contribuer à désinhiber une forme d’expression destructrice. Plusieurs sites obligent désormais à s’identifier (sur le site ou via un compte sur un réseau social par exemple) avant de commenter. Problème : il est très facile de contourner cette règle en s’inventant une identité fictive, par exemple.

La modération a priori consiste enfin à ne valider des commentaires qu’après relecture. Le problème majeur de cette solution est qu’elle est assez chronophage. Certains dispositifs techniques automatisent en partie cette activité par exemple en bannissant automatiquement un certain nombre de mots considérés comme racistes, homophobes, sexistes, insultants ou violents (ou en avertissant en tout cas lorsque des thèmes « sensibles » sont abordés). Cela ne marche néanmoins pas face à des messages dont le contenu est moins explicite, avec l’ironie, et puis il est relativement facile de contourner cette méthode également (par exemple, en écrivant P$ au lieu de PS, en écrivant « les muzzs » au lieu de « les musulmans », etc.).

Dans le prolongement de cette piste, les idées ne manquent pas pour tâcher de s’assurer que les interventions soient constructives. Face aux personnes qui commentent sans lire les contenus et utilisent les espaces de commentaires comme déversoirs, un ami me disait imaginer par exemple une sorte de mini quiz avec des questions sur l’article auxquelles il faut obligatoirement répondre correctement avant de commenter. Il s’agit quelque part de différer le commentaire et d’essayer de sortir l’usager d’une posture de réactivité immédiate. Ce type d’initiative forcerait les personnes à se baser un minimum sur le fond et les mettrait davantage dans une posture participative.

Des moyens en aval

Une modération peut aussi se faire a posteriori, en aval des commentaires. C’est ainsi qu’un modérateur peut par exemple procéder à la suppression des commentaires indésirables. Plusieurs médias sociaux, comme Facebook par exemple, utilisent ce procédé, sur base de signalements (impliquant donc souvent la communauté des utilisateurs). Une des limites de ce mode de fonctionnement est qu’en plus d’être appliqué de manière très problématique, cela fait encourir le risque de faire de la publicité indirecte aux propos supprimés (« on ne peut plus rien dire » + Effet Streisand). Idem pour le fait de bannir un utilisateur (souvent sur base de son adresse IP).

Faut-il censurer les propos racistes ?

Une autre manière de gérer les commentaires a posteriori consiste à répondre à ceux-ci. Néanmoins, comme nous l’avons dit ci-dessus, ce travail est très chronophage. Il suppose par ailleurs d’être assez confiant sur ses propres facultés d’argumentation et sur les aptitudes des publics de l’échange à s’en approprier ou non le propos. De plus, l’un des risques est de « nourrir le troll », en lui donnant de l’attention, et du coup de le « faire grandir », ne serait-ce qu’en visibilité. (Cf. Don’t feed the troll (Rational Wiki)).

> Hubert Guillaud : Faut-il combattre les trolls ? (2014)

De ce fait, Linus Neumann invite à considérer des solutions comme le Shadowban (c’est-à-dire bannir un utilisateur sans que celui-ci ait conscience qu’il est banni) ou encore ce qu’il appelle le Hellbanning :

« Le rageux qui a écrit le commentaire le voit posté sur la page, mais tous les autres visiteurs ne le voient pas. Et c’est comme ça que vous enlevez aux gens ce qu’ils veulent : des réactions. Ils écrivent tout seuls sur leur île déserte mais n’obtiennent aucune réaction. Psychologiquement, c’est le moyen le plus efficace pour décourager quelqu’un de continuer à poster » (L’art du trolling, ou comment troller les trolls (2015))

Neumann propose d’autres moyens dissuasifs faciles à mettre en œuvre techniquement, par exemple sur base de mots-clés (ce qui rejoint une méthode de modération a priori).

The troll-throttle. Linus Neumann a développé un système qui pousse les personnes qui veulent commenter à remplir un captcha. Une fois le commentaire envoyé, son outil calcule la probabilité que le message soit celui d’un troll. Grâce à cette probabilité, et indépendamment du fait que le captcha ait été bien rempli ou non, le troll se retrouve à devoir remplir un captcha à nouveau, et ce jusqu’à épuisement. Le hacker confie que le record est de quinze tentatives avant abandon (L’art du trolling, ou comment troller les trolls (2015))

> Jacques Pezet, L’art du trolling, ou comment troller les trolls (2015)

Dans la même optique, il existe des bots Internet programmés pour répondre automatiquement des arguments prédéfinis à certains types de commentaires. Le but de ces robots est d’épuiser les trolls dans une argumentation sans fin : ils se retrouvent confrontés à des « appâts » qui ne les lisent même pas et les contredisent inlassablement en boucle. Ce temps passé à « débattre face à un mur » ne l’est pas à alpaguer d’autres utilisateurs.

D’autres méthodes font le pari de l’intelligence collective en essayant de valoriser les apports positifs (ou de minimiser l’impact des commentaires négatifs) par des systèmes de tags ou de notation, par exemple, faisant office de « filtres qualitatifs » (exemples dans Internet : la fin des commentaires ? (2015)).

> Antoine Bordes (propos recueillis par Morgane Tual) : « Sur Facebook, il y a tant de contenus qu’on ne peut pas se passer d’intelligence artificielle » (2018)

Notons qu’en aval, il y a aussi la possibilité de sanction légale. Comme le fait remarquer Vincent Glad en 2018, nous assistons aux premières « grandes » condamnations symboliques de propos tenus sur Internet. Il est enfin rappelé que des insultes, diffamations, calomnies, menaces ou autres propos violents ou haineux ne sont pas autorisés, et qu’Internet fait partie de la réalité. Ce n’est pas « moins grave » parce que c’est sur Internet. Ce n’est pas « virtuel » parce que c’est sur Internet.

> Vincent Glad, Nadia Daam : le revanche de la réalité (2018)

Les auteurs, une fois confrontés aux conséquences de leurs infractions pénales, affichent souvent une posture bien moins présomptueuse que derrière leur pseudonyme et leur écran.

> Charlotte Namura partage le message privé violent et misogyne d’un internaute (et sa réponse) (2018)

Un problème majeur de la voie judiciaire est qu’elle est coûteuse, en temps, en argent et en énergie. De plus, notamment en ce qui concerne des mineurs, je crois qu’il y a un risque de « criminaliser » à outrance des comportements dans un contexte face auquel ils n’ont pas été éduqués (à ce sujet, cf. Photos intimes d’adolescents sur Internet : pour une éducation au consentement).

Enfin, le modèle de contribution à Wikipédia illustre encore une autre façon de faire. La structure est extrêmement normée, codifiée et contrôlée par différents niveaux de modération et des possibilités de discussion. Cela me semble être une piste intéressante, notamment en termes éducatifs.

Peut-on faire confiance à Wikipédia ?

De la pédagogie, encore

J’en reviens au propos d’introduction de ces stratégies : il s’agit globalement davantage d’une « lutte anti symptômes ». Pour bien faire, à mon sens, cela ne suffit pas de cacher, supprimer ou déconstruire des commentaires indésirables.

Il est important d’aller au-delà, c’est-à-dire de favoriser des échanges harmonieux et constructifs en ligne, et ce notamment à travers une prise de parole et une posture éducative.

> En 2012, j’avais salué un effort pédagogique en ce sens, par Dorian De Meêus, dans La Libre : Comme nous, modérez vos commentaires… (2012)

Pour aller plus loin (et de manière non-exhaustive) :

> Média Animation asbl, Entre discours de haine et liberté d’expression. Les enjeux de la participation en ligne dans les médias belges francophones (2017)

> Dossier : lutter contre les discours de haine – Ressources et bibliographie

> Comment dialoguer de manière constructive ? (2018)

Lutter contre la haine de l’autre

Comment dialoguer de manière constructive ?

One Comment

Comments are closed.