Plan d’action contre les contenus haineux en ligne

La lutte contre les contenus haineux et le harcèlement en ligne nécessite de traiter de nombreux sujets ; c’est pour cette raison que nous avons souhaité organiser le plan d’action au sein d’un canevas exhaustif de toutes les questions auxquelles nous devons apporter une solution.

  1. Sensibilisation et formation des citoyens sur le civisme en ligne

La prévention constitue le socle indispensable de notre action et la racine de toute solution durable. Cette démarche d’éducation et d’information est déjà largement portée par le système éducatif et par quelques associations spécialisées, à destination des jeunes et du grand public.

Mais nous pouvons faire mieux. Pour cela, il est nécessaire de mobiliser l’ensemble des leviers offerts par le digital, qui permettent de renforcer la portée de ces messages : en incitant les plateformes à pousser du contenu positif sur l’ensemble de la surface dont elles disposent, en facilitant l’accès à du contenu pédagogique. Ce sont elles qui détiennent les clés de l’audience et sont les mieux à même de diffuser largement du contenu.

Une partie de cette démarche d’information peut être encadrée par la loi. Ainsi, il apparaît aujourd’hui raisonnable et opportun d’exiger des acteurs concernés qu’ils mettent en place un avertissement présentant les risques encourus en cas de production de contenus haineux ou illicites et rendent facilement accessibles des précisions sur les contenus visés.

Mais cet effort ne doit pas être limité à la présence en ligne : les actions d’éducation et d’information menées par les acteurs associatifs méritent d’être soutenues.

Certains d’acteurs ont d’ores et déjà investi ce champ de manière volontaire. Facebook a ainsi lancé en novembre un « fonds pour le civisme en ligne », visant à soutenir des acteurs associatifs engagés en matière de contenus haineux, cyber-harcèlement, fake news. Cette initiative est prometteuse et mérite d’être pérennisée : le secteur associatif, indispensable sur ce sujet, ne sera durablement financé que si plusieurs gros acteurs numériques assument conjointement cette responsabilité.

2. Définition des règles de modération

La plateforme peut traiter les contenus présents sur sa plateforme sur la base de deux corpus distincts : la loi ou les conditions générales d’utilisation de sa « communauté ». Aujourd’hui, les acteurs modèrent essentiellement sur la base de ces dernières, qui couvrent généralement au moins formellement la palette des contenus illicites dans un pays donné.

Pourtant, les utilisateurs sont peu informés sur ces standards, les conditions de leur adoption, de leur révision. A ce stade, ils sont imposés de manière asymétrique par les plateformes, qui imposent par là-même certains standards et valeurs, au-delà du cadre strict des contenus illicites (par exemple en censurant la nudité).

Une transparence et un encadrement accrus de ces règles sont nécessaires : les plus grandes plateformes devraient expliquer régulièrement les règles d’adoption de leurs standards de modération et les conditions de leur évolution. Surtout, il serait souhaitable qu’une partie significative de ce corpus fasse l’objet de discussions multipartites (associations de victimes, associations de défense des libertés en ligne, pouvoirs publics, plateformes), afin de cibler au mieux les contenus les plus problématiques et de ménager les nuances nécessaire, tout en veillant à éviter l’écueil de la censure.

3. Evaluation de l’application des règles de modération et mise à jour

Les règles de modération des plateformes devraient être auditables et revues de manière régulière, par exemple sur une base annuelle. Cet audit pourrait être confié à un régulateur.

Ce « reporting » permettrait à la société civile de bénéficier d’une transparence accrue de la part des acteurs. Surtout, il permettrait d’intégrer les retours d’expérience sur l’efficacité des règles adoptées et l’évolution de la nature des contenus signalés.

4. Signalement humain des contenus suspects

Vient ensuite l’étape-clé du signalement : ce dernier permet d’empêcher que les contenus haineux mis en ligne soient diffusés, amplifiés et encouragés.

Pour ce faire, il est nécessaire que toutes les plateformes ou sites mettant à disposition des espaces de discussion ou de partage de contenu proposent des outils de signalement facilement identifiables et mobilisables en quelques secondes par un utilisateur. Cette obligation est d’ores et déjà prévues par la loi mais pas encore mise en œuvre de manière satisfaisante par les acteurs. A défaut de standardisation, une supervision du dispositif pourrait être envisagée, afin d’assurer son ergonomie.

5. Détection automatique des contenus suspects

Mais le signalement demeure un pis-aller : il implique que le contenu a été diffusé et qu’il a potentiellement déjà fait des victimes. Pour rendre cet arsenal plus réactif, il existe des moyens technologiques permettant un traitement plus efficace du contenu dès sa parution – et même avant. Pour ce faire, les plus grosses plateformes peuvent mobiliser les instruments d’intelligence artificielle qu’elles ont commencé à déployer au cours des dernières années à des fins de modération. Facebook revendique ainsi d’éliminer la quasi-totalité des contenus terroristes avant qu’ils aient pu être diffusés.

Les contenus haineux ou dangereux présentent généralement des caractéristiques plus complexes mais, avec le temps, il est envisageable que les algorithmes des plus gros réseaux sociaux soient suffisamment entraînés pour en assurer une détection rapide.

Cette solution a le mérite de prévenir les risques de viralité et d’épargner de potentielles victimes. Elle implique néanmoins pour les acteurs concernés de poursuivre leurs investissements en intelligence artificielle. Aujourd’hui, pour la plupart d’entre eux, ces développements sont amorcés mais encore insuffisants pour traiter efficacement la palette des expressions haineuses et dangereuses.

6. Retrait et sanction du non-retrait

Avant d’avoir établi la nature exacte du contenu signalé, les plateformes doivent pouvoir mettre les contenus « en quarantaine », permettant d’enrayer leur diffusion. La suspension est particulièrement adaptée lorsque le contenu signalé n’apparaît pas « manifestement illicite ». Cette exigence implique la mise en place d’un système de traitement progressif de chaque contenu signalé et la conservation de ces contenus, afin de pouvoir les remettre en ligne si le signalement n’apparaissait pas justifié.

Le délai de retrait cristallise les attentes car il est déterminant dans la diffusion d’un contenu. Pour les gros acteurs, il est envisageable de mettre en place des délais de retrait très contraints, de quelques heures pour les contenus à risque. En matière de contenus terroristes, il est ainsi prévu que ce délai soit d’une heure, dans le cadre du projet de règlement européen sur ce sujet. La loi allemande oblige en outre désormais les acteurs à supprimer dans un délai de 24h les contenus « manifestement illégaux » et prévoit des sanctions allant jusqu’à cinquante millions d’euros en la matière.

Pour les plus petits acteurs, il convient néanmoins de mesurer le risque : au vu de la vaste zone grise en matière de contenus haineux, des obligations trop strictes peuvent conduire ces acteurs à censurer de manière excessive. C’est pourquoi il est nécessaire d’adopter une approche proportionnée en la matière : être plus exigeants avec les plus gros acteurs et prévoir des sanctions sévères lorsque les dispositifs déployés sont en-deçà des attentes.

7. Après le retrait : information et possibilité de faire appel

L’efficacité de la procédure de retrait ne doit néanmoins pas occulter la nécessité de préserver la liberté d’expression et le droit à une procédure contradictoire. A cette fin, il est indispensable que les sites et applications concernés ménagent une possibilité de contestation de la décision de retrait – et donc de rétablissement du contenu supprimé. Cette fonctionnalité est d’autant plus nécessaire lorsque des outils de détection sont mobilisés. En effet, ces instruments commettent encore de nombreuses erreurs. Face à ce constat, Facebook a d’ailleurs décidé de lancer en 2018 un mécanisme d’appel.

Il est en outre nécessaire que les plateformes informent systématiquement leurs utilisateurs des suites données à leur signalement, en précisant notamment si ce dernier faisait effectivement entorse aux règles de modération.

8. Accompagnement des victimes

L’accompagnement des victimes constitue une étape importante dans le traitement des contenus illicites par les plus grandes plateformes – et il est aujourd’hui généralement négligé. Cette démarche de soutien est pourtant déterminante pour accompagner efficacement les victimes : leur présenter en détail les options qui s’offrent à elles en matière de poursuites, leur proposer une mise en relation avec des partenaires associatifs ou services d’écoute.

Nous sommes en droit d’attendre des plus grosses plateformes qu’elles soient irréprochables dans ce soutien, pour lutter contre le sentiment d’isolement et d’impuissance qui prévaut actuellement chez les victimes de ces expressions haineuses.

9. Identification des auteurs de contenus illicites

L’identification des auteurs de contenus illicites est fondamentale pour lutter contre l’impunité. Peu de lieux de discussions en ligne sont réellement anonymes – le pseudonymat prévaut généralement. Quoi qu’il en soit, les auteurs demeurent identifiables, notamment via leurs adresses IP.

Les difficultés que nous rencontrons pour poursuivre effectivement les auteurs de ces contenus illicites s’expliquent donc plutôt par la difficulté à mobiliser les acteurs pour fournir rapidement aux autorités les données permettant l’identification des auteurs. Ce constat implique de redéfinir les contraintes qui pèsent sur ces acteurs et notamment d’envisager des délais pour communiquer ces informations dans les cas les plus graves. Le projet de règlement européen « e-evidence » pourrait permettre des progrès en la matière.

10. Réponse judiciaire

Les plus grosses plateformes doivent en outre amorcer une démarche de coopération renforcée avec les autorités judiciaires pour assurer un suivi plus efficace des contenus signalés. Là encore, l’obligation existe mais, faute de supervision spécifique, elle est appliquée de manière insatisfaisante.

Surtout, au-delà de la simple transmission d’informations sur des cas signalés, il faut attendre des plateformes qu’elles coopèrent avec les autorités judiciaires pour traiter à la racine la problématique, notamment en identifiant les auteurs récurrents de contenus haineux ou dangereux. Bien sûr, cette coopération devra être bâtie dans un cadre très circonscrit, afin d’éviter toute atteinte aux libertés individuelles. Néanmoins, les plus grosses plateformes se sont dotées d’outils extrêmement performants au fil des années ; il serait regrettable de ne pas les mobiliser plus efficacement.

Enfin, la multiplication des « sites miroirs », qui. vident de leur portée les décisions de justice, contribue également à affaiblir nos moyens d’actions : nous devrons renforcer l’efficacité de notre arsenal pour lutter contre ces contournements manifestes de notre droit et éviter de subir la réapparition de sites nauséabonds, tels que le désormais tristement célèbre « démocratie participative », antisémite et homophobe.