Le règlement européen sur les contenus à caractère terroriste en ligne et les droits fondamentaux

En septembre 2018, la Commission européenne a émis une proposition de règlement relatif à la prévention de la diffusion de contenus terroristes en ligne. Cette proposition vient d’être approuvée par la Commission Libertés civiles, justice et affaires intérieures du Parlement européen. Une fois ce règlement définitivement adopté, ses règles seront directement applicables sur le territoire belge, du fait du mécanisme dit de « l’effet direct ». Cependant, certains aspects du texte, tel que présenté actuellement, nous paraissent problématiques au regard de certains droits fondamentaux.

Pour comprendre les dangers inhérents reliés à ce texte, il faut revenir à la manière dont la proposition suggère de retirer les potentiels contenus terroristes postés sur Internet. Les États Membres de l’Union Européenne se devront de choisir une ou plusieurs autorités compétentes, qui seront chargées de mettre en œuvre cette surveillance quant aux contenus terroristes présent sur le net. Parmi ses missions, l’autorité compétente pourra notamment prendre la décision de donner l’ordre à un fournisseur de service d’hébergement (à savoir, le prestataire offrant l’ouverture de site web et leur accès au public) de retirer un certain contenu considéré comme étant de caractère terroriste. Cette suppression devra, dans cette hypothèse, être effectuée dans l’heure suivant cet ordre. L’autorité compétente en question ne connaît pas de limites territoriales lorsqu’elle donne cet ordre de suppression : une autorité compétente située en Pologne pourra dès lors donner l’ordre de retirer un contenu mis en ligne par un utilisateur belge sur un site ouvert par un fournisseur de service d’hébergement se trouvant sur le territoire belge.

C’est donc dans ce mécanisme que repose le cœur des risques d’atteintes aux droits fondamentaux. Nous relevons que le texte de la proposition ne prévoit pas ce que consiste exactement une « autorité compétente ». Le pouvoir judiciaire (juges, magistrat·e·s…) est considéré comme le plus à même de pouvoir prendre ce type de décision, notamment du fait de leur autonomie vis-à-vis du pouvoir politique. Cependant, la proposition laisse supposer la possibilité de mise en place d’une autorité centrale non-judiciaire (on pourrait imaginer que ce rôle soit, par exemple, confié à la police) qui pourrait très bien être dépendante du pouvoir politique en place, en l’absence de garantie d’impartialité. Dans ce contexte, le risque d’une censure par la suppression de contenus mis en ligne qui, sans pour autant inciter au terrorisme, seraient tout simplement contraires aux idées d’un certain parti au pouvoir est accentué, d’autant plus qu’il n’existe aucune assurance que l’autorité se conforme bien aux objectifs anti-terroristes du texte européen. Ce système pourrait donc aboutir à des atteintes importantes à la liberté d’expression. À noter que la LDH n’est pas la seule à avoir relevé le risque de ce genre de dérives : le Conseil constitutionnel français a fait les mêmes observations à l’égard d’une loi française prévoyant un mécanisme similaire à celui exposé ci-dessus.

Les problèmes relatifs à la liberté d’expression ne s’arrêtent cependant pas à cette question de l’autorité concernée. En effet, nous constatons que le « contenu à caractère terroriste », devant être retiré, est défini d’une manière fort large par la proposition : des contenus visant à l’information ou encore établis à des fins critiques ou satiriques pourraient ainsi être caractérisés comme étant « à caractère terroriste » et devront être supprimés. Pour compenser ces risques, une récente proposition émise au sein du Conseil demande de prendre en compte les standards journalistiques établi par le droit de la presse et des médias lors de l’évaluation d’un contenu potentiellement à caractère terroriste. Cette demande ne concerne cependant que les médias traditionnels et reconnus (de type presse officielle) et laisse sur le côté une large partie des personnes pouvant poster ce type de contenu satirique/informationnel (blogueur·se·s, vidéastes amateur·rice·s, influenceur·se·s, ONG…). Le temps limité d’une heure pour pouvoir retirer le contenu en question peut mener à un automatisme de suppression, au lieu d’une analyse au cas par cas qui pourrait déterminer si le contenu fait réellement l’apologie du terrorisme ou a une autre fonction.

Un autre risque de violation de la liberté d’expression et des droits fondamentaux se retrouve également dans le fait que la compétence de l’autorité dans la demande de suppression ne s’arrête pas à ses frontières, ainsi que nous l’avons déjà exposé. Cette situation est problématique lorsqu’on considère la situation politique actuelle dans certains États membres de l’Union européenne : plus particulièrement, la Pologne et la Hongrie se sont dernièrement illustrées comme étant des pays interférant avec l’indépendance du système judiciaire et violant certaines valeurs fondamentales européennes. Cela pourrait entraîner des risques de censure et de violations de droits fondamentaux qui auraient lieu au sein de notre pays par l’entremise d’une autorité située en Pologne ou en Hongrie. Le Parlement européen a cependant émis l’idée que la suppression du contenu soit conditionnée à l’approbation de l’État membre sur lequel se trouve le fournisseur de service d’hébergement, qui pourrait refuser cette suppression pour des questions de droits fondamentaux. Cette situation pose également des problèmes d’accès à la justice : dans notre exemple, l’utilisateur·rice belge considérant que son contenu n’a aucun lien avec le terrorisme devra se rendre jusqu’en Pologne afin de contester la décision de l’autorité compétente.

Enfin, ce mécanisme prévoit un temps de réactivité à l’injonction de retrait qui n’est tout simplement pas tenable pour de nombreuses entreprises de taille modeste : le délai d’une heure laissé aux fournisseurs de service d’hébergement pour supprimer un contenu après l’émission d’une injonction de retrait par l’autorité compétente leur imposerait d’être joignables en permanence et peut-être même de consacrer des ressources uniquement dédiées à la suppression de contenu.

En conclusion, si l’on ne peut une nouvelle fois que souscrire à l’objectif déclaré de lutter efficacement contre le terrorisme, les moyens employés sont une nouvelle fois questionnables et sources de dérives potentielles.

1er février 2021