16 janvier 2021

On revient au début

Les réseaux sociaux et la liberté d’expression

Plusieurs réseaux sociaux ont suspendu en fin de semaine dernière les comptes du président des États-Unis, Donald Trump. Twitter lui reproche une « glorification de la violence » à travers ses derniers tweets, après l’invasion du siège du Parlement par plusieurs centaines de ses soutiens. L’émergence des réseaux sociaux a mis en évidence le difficile maintien d’un équilibre entre le respect de la liberté d’expression et la prévention de certains délits et crimes. La montée du terrorisme a contribué à changer la donne.


Le concept

La liberté d’expression est le droit d’exprimer ses opinions, quelles qu’elles soient et par quelque moyen que ce soit, sans être inquiété pour cette raison. Elle fait partie des droits humains fondamentaux inscrits dans la Déclaration universelle des droits de l’homme adoptée en 1948 par l’Assemblée générale des Nations unies. En France, la liberté d’expression est garantie depuis la Déclaration des droits de l’homme et du citoyen de 1789, mais des abus peuvent être sanctionnés. La loi de 1881 sur la liberté de la presse, révisée à plusieurs reprises, interdit par exemple l’expression publique d’insultes, de provocations à la discrimination, à la haine ou à la violence, d’incitations à commettre des délits ou des crimes ou la contestation de crimes contre l’humanité. Aux États-Unis, le premier amendement de la Constitution ratifiée en 1791 garantit que le Parlement « n’adoptera aucune loi » visant à « limiter la liberté d’expression ». Plusieurs décisions de justice ont ensuite interdit les incitations à la « violence immédiate » ou les fausses déclarations.


Les dates clés

2004

Le Parlement français adopte en 2004 la loi pour la confiance dans l’économie numérique, qui transpose dans le droit français une directive européenne remontant à 2000. Cette loi précise que la responsabilité des plateformes numériques intervenant en France n’est engagée pour les contenus postés par leurs utilisateurs que si, « dès le moment » où elles ont eu connaissance de « leur caractère illicite », elles n’ont pas « agi promptement pour retirer ces données ou en rendre l’accès impossible ». La loi affirme que les plateformes numériques ne sont pas soumises à « une obligation générale de surveiller les informations qu’elles transmettent ou stockent ». Elles doivent cependant « mettre en place un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance » tout contenu faisant notamment l’apologie de crimes contre l’humanité, d’actes terroristes ou incitant à la haine raciale.

2015

Les attentats de janvier 2015 en France mettent en lumière la façon dont l’idéologie djihadiste se diffuse sur les réseaux sociaux et comment le groupe terroriste État islamique les utilise pour s’organiser et recruter des membres. Le ministre de l’Intérieur, Bernard Cazeneuve, se rend en février dans la Silicon Valley, aux États-Unis, pour inciter les grandes entreprises du numérique qui y ont leur siège, comme Facebook et Twitter, à supprimer davantage de contenus faisant l’apologie du terrorisme. Twitter entame en avril une campagne de suppression de comptes en lien avec le terrorisme. Jusqu’ici, pour faire l’objet d’une suppression, un contenu devait au préalable avoir été signalé par des utilisateurs ou des autorités et enfreindre les conditions d’utilisation du réseau social. En 2018, l’entreprise annonce être parvenue à supprimer 1,2 million de comptes liés au terrorisme entre avril 2015 et décembre 2017, dont 93 % grâce à ses propres outils, comme un algorithme de veille, et le reste grâce aux signalements.

2018

Une loi pour combattre les propos haineux sur les réseaux sociaux et la désinformation, appelée NetzDG, entre en vigueur en Allemagne en janvier 2018. Elle impose aux réseaux sociaux de supprimer des publications « manifestement illégales » dans un délai de 24 heures après leur signalement, sous peine d’une amende pouvant s’élever jusqu’à 50 millions d’euros. La loi demande également aux réseaux sociaux de publier un rapport trimestriel précisant le nombre de signalements traités, le mode de décision ou les effectifs de leurs équipes qui en sont chargées. Dès le 1er janvier, un tweet d’une députée du parti d’extrême droite AfD est supprimé en raison de son « incitation à la haine raciale » selon Twitter, puis son compte est suspendu pendant quelques heures. La députée dénonce la « fin de l’État de droit ». En France, la députée LREM Laëtitia Avia présente en 2019 une proposition de loi qui s’inspire de la NetzDG. La loi est adoptée par le Parlement, mais l’essentiel de ses mesures sont censurées par le Conseil constitutionnel, l’instance chargée de contrôler la conformité des lois à la Constitution.

2020

En octobre 2020, le fondateur de Facebook, Mark Zuckerberg, annonce que nier l’existence de l’Holocauste sera désormais interdit sur le réseau social partout dans le monde, alors que la négation de l’Holocauste n’est pénalement interdite que dans une dizaine de pays, dont la France et l’Allemagne. « J’ai eu du mal à arbitrer entre la défense de la liberté d’expression et les conséquences de la minimisation et du déni de l’Holocauste. Ma pensée a évolué quand j’ai vu des données sur la hausse des violences antisémites », explique-t-il. Deux ans plus tôt, dans une interview au site Recode, Mark Zuckerberg avait déclaré trouver « profondément choquant » en tant que juif que des personnes nient l’Holocauste sur Facebook. Il estimait cependant qu’il ne revenait pas au réseau social de supprimer ce que des gens écrivent par erreur et pas « intentionnellement ». Au cours de l’année 2020, Facebook a pris d’autres mesures pour lutter contre la désinformation ou les propos haineux, en supprimant par exemple les pages et groupes liés au mouvement complotiste QAnon.


L’analyse

Après avoir suspendu le compte de Donald Trump la semaine dernière, le fondateur de Twitter, Jack Dorsey, a déclaré jeudi que cette décision constituait un « échec » de la part du réseau social à « promouvoir une conversation saine ». Elle établit selon lui un précédent « dangereux » en raison du pouvoir d’une entreprise telle que la sienne sur « une partie de la conversation publique mondiale ». Les décisions de suspendre les comptes de Donald Trump prises par Twitter, Facebook, YouTube et de nombreux autres réseaux sociaux leur ont en effet valu de nombreuses critiques. Thierry Breton, commissaire européen au Marché intérieur qui a présenté en décembre un texte visant à renforcer la responsabilité des plateformes, a par exemple déclaré lundi dans une tribune publiée par Le Figaro que ces suspensions avaient eu lieu « sans contrôle légitime et démocratique ». Théophile Lenoir, responsable du programme numérique à l’Institut Montaigne, un centre de réflexion, estime qu’il faudrait que les critères invoqués pour suspendre un compte ou supprimer des contenus soient approuvés « par des institutions démocratiques » pour que ces actions apparaissent légitimes.