Comment combattre le racisme et l’antisémitisme sur Internet en Allemagne et en France ? Où en est-on ?
Depuis ce 1er janvier 2018, la loi impose désormais à Facebook, Twitter, YouTube, Google et tous les autres plateformes du Web de supprimer systématiquement et sous 24 heures tout propos illégal et délictueux : message raciste ou antisémite, appel à la haine, à la violence, insultes, fake news… Sous peine d’amendes pouvant aller jusqu’à 50 millions d’euros. Le texte de cette loi, forcément redoutée par les grandes plateformes du web, est entré en vigueur en octobre, mais offrait un délai de trois mois aux sociétés pour s’organiser. L’identité des auteurs devra aussi être dévoilée et les internautes constatant un manquement à la nouvelle réglementation pourront saisir le ministère de la justice via un formulaire dédié. Bref, dans le monde du Web, une vraie révolution et une manière efficace de lutter contre le racisme et l’antisémitisme. Et en France, où en est-on à ce sujet ?
L’information était publiée dans le Canard enchaîné du 15 septembre 2017 (page 2). Le 7 novembre, la ministre de la Justice, Nicole Belloubet, avait lancé un pavé dans la mare numérique. Sur LCI, elle annonçait qu’elle travaillait « à renforcer notre arsenal législatif », pour convaincre les Google, Apple, Facebook, Amazon, et compagnie –les « Gafa » dans le jargon du milieu- de retirer de leurs réseaux les messages racistes et antisémites et autres appels au meurtre. Or, en droit français les Gafa ne sont considérés que comme des hébergeurs.
Mais, qu’est-ce qu’un hébergeur ? Et quelle sa responsabilité ?
C’est une personne, physique ou morale, « qui assure, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services » (Article 6-1-2 de la loi de la loi pour la confiance dans l’économie numérique (LCEN).
L’article 6-I-2 dispose également que les hébergeurs « ne peuvent pas voir leur responsabilité civile engagée du fait des activités ou des informations stockées à la demande d’un destinataire de ces services si elles n’avaient pas effectivement connaissance de leur caractère illicite ou de faits et circonstances faisant apparaître ce caractère ou si, dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l’accès impossible ». Aux termes de cet article l’hébergeur doit donc, lorsqu’il est alerté d’un contenu illicite, agir promptement pour retirer ledit contenu ou en rendre l’accès impossible. Le Canard résume ainsi la situation : « Les Gafa ne peuvent donc être poursuivis qu’aux termes d’une complexité décourageante. Une situation d’autant plus absurde que les journaux, eux, sont pénalement responsables de la moindre ligne publiée. » De fait, l’hébergeur continue de bénéficier d’un régime de responsabilité atténuée. Ce qui, d’évidence est particulièrement injuste (par rapport aux journaux) et pose problème. Comme s’il fallait se contenter du minimum syndical les concernant.
Mounir Mahjoubi réclame un traitement de ces contenus aussi rapide que possible
Autre réaction, cette fois sur Europe 1 (13 décembre 2017) : le secrétaire d’État chargé du numérique appelait les hébergeurs et les réseaux sociaux à faire preuve de la même promptitude dans la gestion des messages à caractère haineux que dans celles des contenus à caractère pornographique, supprimés en quelques minutes. « Quand on accueille plus de deux millions d’utilisateurs, on a une responsabilité qui n’est pas comme les autres. On devient une place ou l’écho a une forte propagation », pointait-il. Mounir Mahjoubi réclamait un traitement de ces contenus aussi rapide que pour la diffusion d’images à caractère pornographique. « On leur dit : vous qui êtes capables de vous mobiliser en quelques minutes pour un téton, mobilisez-vous pour un message de haine. » Le secrétaire d’Etat cite notamment en exemple l’Allemagne, dont la loi récemment votée au Bundestag reconnait une responsabilité de la plateforme et des réseaux sociaux quant aux contenus diffusés.
Quelle stratégie ?
En France (comme en Allemagne) la réflexion a évolué. Des constatations simples ont été faites et les conclusions sont globalement les suivantes :
En France, L’UEJF et d’autres associations (SOS racisme, LICRA, J’Accuse…) avaient réalisé un testing, qui a montré que 4 % des signalements pour racisme et antisémitisme sont pris en compte par Twitter, 34 % par Facebook et 7 % par YouTube. Assurément, la modération est insuffisante.
Pourquoi ?
1) Ce n’est pas avec quelques deux ou trois cent modérateurs francophones -dont la plupart sont physiquement installés dans d’autres pays (notamment en Afrique) – que ces entreprises ont été/sont/seront en capacité de modérer avec efficacité et rapidité. Cette main d’œuvre (bon marché) travaille difficilement et les cadences sont infernales. Se pose la question de savoir comment l’on peut raisonnablement modérer un post, si le modérateur dispose de 15 ou 30 secondes pour ce faire ?
2) Se pose également la question de la formation. Les formateurs sont-ils suffisamment formés à la tâche ? Ont-ils une connaissance spécifique de notre Droit, par exemple ? Quelle est leur culture historique ? Quelle connaissance ont-ils de nos questions sociétales concernant les enjeux de mémoire, les actes racismes et antisémites, les clichés, préjugés et stéréotypes, la montée du populisme ?
3) Comment peuvent-ils comprendre une situation compliquée s’ils sont en dehors de la France ?
4) Par ailleurs, les entreprises américaines ont développé un concept spécieux qui semble souvent se substituer aux dispositions pénales en matière de lutte contre le racisme et l’antisémitisme. Ce concept est dénommé : termes du service ou standards de la communauté. Qui fixe la règle ? Les internautes ? Non, ce sont les dites sociétés qui fixent la règle.
5) Les sociétés américaines ont en tête le premier amendement de la Constitution américaine. La logique est américaine. Faire bouger ces mastodontes, nés dans l’environnement juridique américain où la liberté de parole est moins encadrée, est chose compliquée.
Quels sont les acteurs en charge d’une réflexion sur ce sujet ?
Dans le cadre de l’évaluation du Plan interministériel de lutte contre le racisme et l’antisémitisme (PILCRA) et de la préparation du suivant, la Délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la Haine anti-LGBT a une mission d’évaluation et de propositions, qui concerne également ces problématiques. Or, le plan national d’action, renouvelé à intervalles réguliers depuis 2012, contribue à donner une impulsion à l’action publique de lutte contre toutes les formes de racisme, et ce afin de promouvoir le « vivre » et le « faire » ensemble. Rappelons que la DILCRAH est placée depuis novembre 2014, sous l’autorité du Premier ministre. De plus, la nature même de la mission de la DILCRAH implique, pour obtenir des résultats tangibles, que son action s’inscrive dans une approche partenariale. La DILCRAH consulte donc.
Notons également qu’en novembre 2017, David Martinon a été nommé ambassadeur pour le numérique lors du conseil des ministres ce matin. C’est une décision importante qui donne à M. Martinon compétence sur des sujets ayant trait au numérique dont ce ministère a la charge : les négociations internationales sur la cyber sécurité, la gouvernance de l’internet et des réseaux, la liberté d’expression sur internet, les sujets de propriété intellectuelle liés à l’internet, le soutien à l’export des entreprises du numérique et la participation de la France au partenariat pour un gouvernement ouvert, en lien avec Etalab. La mission Etalab fait partie de la Direction interministérielle du numérique et du système d’information et de communication de l’Etat (DINSIC), dont les missions et l’organisation sont fixées par les décrets du 20 novembre 2017. Etalab coordonne les actions des administrations de l’Etat et leur apporte son appui pour faciliter la diffusion et la réutilisation de leurs informations publiques. Elle contribue à leur conception et coordonne leur mise en œuvre interministérielle.
Bref, d’ici peu des propositions concrètes seront faites afin de renforcer notre arsenal juridique. Même si la France ne devait pas s’aligner sur l’Allemagne, il est très vraisemblable qu’en France beaucoup de choses changeront vers la mi 2018, tant les conclusions sont évidentes. Pour lutter plus efficacement contre le racisme et l’antisémitisme sur le Net, il faut faire évoluer notre législation.