L'attentat de Christchurch fera date. Pas seulement parce que cet acte terroriste perpétré le 15 mars dernier par un militant d'extrême droite en Nouvelle-Zélande contre deux mosquées, faisant 51 morts et des dizaines de blessés, a ému le monde entier, mais aussi parce qu'il constitue peut-être un tournant dans la lutte contre les contenus haineux et violents sur internet. Le fait que l'attaque terroriste a été filmée par celui-là même qui la commettait et que les images ont été diffusées en direct sur Facebook pendant 17 minutes avant que la vidéo ne soit retirée – laissant de fait largement le temps de la voir se dupliquer des milliers de fois – y est pour beaucoup.
Cette prise de conscience s'est traduite le 15 mai par l'Appel de Christchurch pour agir contre le terrorisme et l'extrémisme violent en ligne, lancé à Paris par la Première ministre néo-zélandaise Jacinda Ardern et le président Macron. Ce texte non-contraignant – prélude d'ailleurs à une charte des pays du G7 – signé par plusieurs Etats et géants du Net sera-t-il suffisant ? Permettra-t-il d'endiguer le flot de haine, de racisme, d'homophobie, d'images violentes et d'activités délictueuses qui prospèrent sur les réseaux sociaux ?
Le succès dépendra de la mobilisation de trois acteurs. Le premier, ce sont bien sûr les Etats qui doivent afficher une volonté politique commune. Leur tâche est de créer un cadre réglementaire clair, des textes de loi précis et applicables. C'est possible : l'an dernier l'Union européenne a voté le Réglement général sur la protection de données (RGPD) des internautes qui fait école maintenant. Les Etats ne peuvent jouer les Ponce Pilate et confier aux seules plateformes numériques le soin d'organiser la suppression de tel ou tel contenu selon leurs critères. Mais la recherche du consensus est difficile. Les Etats-Unis de Donald Trump n'ont pas signé l'Appel de Christchurch…
Le second acteur, ce sont les géants du Net, les fameux GAFAM (Google, Amazon, Facebook, Apple, Microsoft). Sous la pression de l'opinion, ils ont fait de louables efforts ces dernières années pour combattre les contenus haineux. Mais leur modération est encore insuffisante et surtout soumise à certains biais. Les algorithmes mis en œuvre pour supprimer les contenus violents restent secrets, les critères de suppression mouvants voire incompréhensibles. Il manque clairement de la transparence et de la cohérence. Il manque aussi la possibilité d'associer à la réflexion les plateformes plus modestes, qui peuvent vite devenir le repaire des groupes terroristes…
Enfin, troisième acteur et non des moindres, les utilisateurs eux-mêmes. Car si des contenus haineux deviennent viraux, c'est bien parce qu'ils sont relayés, repostés, retweetés par des internautes. Certains – à tort – le font de bonne foi pour partager leur indignation mais d'autres rediffusent sciemment textes, photos ou vidéos violentes. Les internautes doivent bien sûr être aidés pour signaler facilement ce type de contenus mais il est de leur responsabilité de ne pas les amplifier ; et cette responsabilité-là doit s'apprendre dès l'école.
La lutte contre les contenus violents, on le voit, ne sera efficace que si ces trois acteurs trouvent un équilibre entre l'extraordinaire liberté d'expression que permettent les réseaux sociaux et les limites légales sans lesquelles nous ne faisons plus société.
(Editorial publié dans La Dépêche du Midi du lundi 3 mai 2019)