Le 5 mai dernier, le conseil de surveillance de Facebook, chargé d’examiner « de manière indépendante certaines [des] décisions les plus délicates et importantes concernant le retrait de contenus », a prolongé la suspension du compte de l’ex-président des États-Unis Donald Trump. Ce retrait, effectif sur l’ensemble des plateformes numériques depuis les émeutes du Capitole de janvier dernier, appelle à se questionner sur leur place dans le débat public et politique.
L’espace public numérique a pendant longtemps été considéré comme un nouveau champ des possibles au sein duquel la liberté d’expression était totale et la diversité des opinions assurée. Cependant, l’avènement des réseaux sociaux comme catalyseurs de la diffusion de l’information en fait désormais un espace au cœur de nombreuses controverses politiques, économiques et culturelles. La question portant sur la responsabilité des hébergeurs quant aux contenus publiés par leurs utilisateurs se pose avec une importance accrue en raison de leur omniprésence en tant que contributeurs directs à la diffusion de l’information et des idées.
L’irresponsabilité quasi-totale des plateformes pour le contenu qu’elles hébergent
A la différence des éditeurs de contenu, dont l’activité est de publier des contenus sur lesquels ils exercent un contrôle (presse, télévision, blogs, etc.), les hébergeurs tels que les réseaux sociaux, plateformes collaboratives et services de référencement en ligne ne sont pas responsables du contenu publié par leurs utilisateurs. A l’échelle de l’Union européenne (UE), la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, communément appelée « directive sur le commerce électronique », introduit en effet une summa divisio entre éditeurs et hébergeurs, de laquelle découle des régimes de responsabilité distincts. Celle-ci a été transposée en droit français par la loi pour la confiance dans l’économie numérique du 21 juin 2004. Aux États-Unis, c’est la section 230 du Communications Decency Act, édictée en 1996, qui pose le principe d’irresponsabilité des hébergeurs de contenu. Ces dispositions visaient, au moment de leur adoption, à trouver un équilibre entre la liberté d’expression des utilisateurs, l’accès gratuit à des ressources informationnelles et éducatives inédites et le développement de services de communication en ligne.
Toutefois, en Europe, les hébergeurs de contenu tels que Facebook, Twitter ou Google sont tenus de retirer le contenu illégal publié par leurs utilisateurs. L’article 14 de la directive sur le commerce électronique et les articles 2 et 3 de la loi du 21 juin 2004 prévoient en effet qu’ils peuvent voir leur responsabilité civile ou pénale engagée en raison de contenus hébergés sur leurs serveurs s’ils ont effectivement connaissance de l’activité illégale ou s’ils n’agissent pas « promptement » pour retirer ces informations dès lors qu’ils en ont connaissance. Il peut notamment s’agir de propos haineux, discriminants ou incitant à la violence ou au terrorisme, etc.
Un glissement progressif vers la reconnaissance des plateformes comme éditeurs de contenu ?
L’utilisation croissante des réseaux sociaux pour diffuser des fausses informations et des contenus illégaux a contraint les hébergeurs à modérer l’usage de leurs plateformes à travers la rédaction et la mise en œuvre de conditions d’utilisation contraignantes. Ces règles régissant les communautés de Twitter, Facebook ou encore Instagram sont donc presque les seules « lois » auxquelles ces entreprises sont soumises. S’il convient de noter que la régulation des débats et publications en ligne est indispensable, sommes-nous certains de vouloir attribuer cette mission aux acteurs oligopolistiques du marché du numérique ? Cela conduirait à reproduire les mêmes erreurs ayant amené au contrôle de l’information par les médias traditionnels. En effet, un changement de politique dans la régulation des contenus par les plateformes qui les hébergent semble s’être opérée : auparavant soucieuses de retirer uniquement les publications manifestement illégales ou illicites pour ne pas voir leur responsabilité engagée, les entreprises de la Big Tech semblent récemment s’attacher au retrait des éléments allant à l’encontre des « règles de la communauté ». Ces règles sont généralement floues et leur mise en œuvre repose majoritairement sur une contribution « participative » des utilisateurs. Ces derniers peuvent à raison signaler tout contenu réellement illégal ou, de manière plus problématique, signaler des contenus heurtant leur sensibilité ou en opposition avec leurs convictions personnelles.
Or, en acceptant de prendre position sur des contenus qui ne sont pas manifestement illégaux mais qui se trouvent dans une zone grise entre la licéité et l’illicéité, Twitter et consorts se trouvent non plus être de simples fournisseurs d’infrastructures nécessaires à la circulation de l’information, mais se rapprochent du statut des éditeurs de contenus. En exerçant un certain contrôle sur les paquets d’information qu’elles hébergent, les plateformes jouent un rôle d’éditorialisation de fait, et cela modifie considérablement leur perception d’un point de vue légal. C’est ce qu’avait tenté de prendre en compte la loi contre les contenus haineux sur Internet – dite loi Avia – en France, dont de nombreuses dispositions avaient été déclarées contraires à la constitution par le Conseil constitutionnel en juin 2020. C’est également ce à quoi s’intéresse le Digital Services Act proposé par la Commission européenne en décembre 2020 dans le cadre de sa stratégie d’harmonisation du marché unique numérique européen. Ces initiatives sont louables car elles tentent de répondre au problème systémique de l’irresponsabilité des plateformes.
Paradoxalement, en cherchant à réguler l’hégémonie qu’exercent les géants du net sur le contrôle de l’information, les législateurs leur donnent en réalité davantage de marge de manœuvre. En imposant aux hébergeurs de retirer les contenus « manifestement illicites », ces règlementations leur accordent d’une part le pouvoir de définir ce qui est illicite selon leur propre prisme, et d’autre part la capacité de limiter la liberté d’expression de certains utilisateurs, sans intervention d’acteur extérieur indépendant. Une caricature religieuse doit-elle être considérée comme illicite ? Dans l’ensemble des pays ou certains seulement ? La nudité doit-elle être censurée même lorsqu’il s’agit de contenus pédagogiques ou artistiques ? Ces questions illustrent l’exercice périlleux que représentent les tentatives de trouver un équilibre entre la liberté d’expression et la lutte contre la diffusion de contenus illégaux et de fausses informations. Les solutions répondent cependant à un intérêt général et ne devraient pas être laissées à l’entière discrétion d’acteurs privés.
Il convient de rappeler que les plateformes numériques sont des entreprises privées disposant de toute latitude pour limiter l’accès à leurs services à des personnes qui feraient un usage abusif des services qu’elles fournissent. Cependant, cela devient un problème lorsque les actions mises en œuvre par ces acteurs à cet égard sont susceptibles de faire intervenir des biais ayant un impact sur l’accès à l’information par les utilisateurs.
Le contrôle et la manipulation des flux d’information par les GAFA : une remise en cause de la neutralité du net
Dans son livre paru en mars dernier, Jillian C. York démontre qu’aujourd’hui, « les entreprises et les plateformes exercent un contrôle plus important sur notre capacité à accéder à l’information et à partager les connaissances que n’importe quel État ». En effet, au-delà du débat sur le pouvoir qu’ont les acteurs de la Silicon Valley sur la liberté d’expression, raisonnent également des problématiques quant à la possibilité pour les utilisateurs d’accéder à une information neutre et exempte de tout biais idéologique. Les algorithmes des plateformes numériques sont conçus de manière à déréférencer ou, au contraire, améliorer la visibilité de certains contenus selon des techniques mathématiques et d’intelligence artificielle dont la logique est de moins en moins lisible et compréhensible par l’utilisateur. Deux tendances semblent émerger dans la gestion des contenus par les plateformes de réseaux sociaux.
D’une part, certaines mesures mises en œuvre depuis le début de la crise sanitaire visent à offrir aux utilisateurs uniquement des informations considérées comme « fiables » par les plateformes. A titre d’exemple, la politique de Youtube relative aux contenus sur « la désinformation liée au Covid 19 » indique que l’entreprise n’autorise pas la publication d’« allégations concernant la vaccination qui contredisent le consensus des experts des autorités sanitaires locales ou de l'OMS ». De même, tout contenu relatif à des sujets sensibles dans l’opinion publique (politique, élections, Covid 19, etc.) est fréquemment accompagné de messages d’avertissement donnant des indications sur la provenance ou la fiabilité des informations qu’il véhicule. « Faux », « information partiellement fausse », « cette publication manque de contexte » sont des bannières que Facebook affiche sous des contenus considérés comme peu fiables par les vérificateurs du réseau social, et renvoyant vers des sources officielles. Twitter affiche également des libellés relatifs aux comptes de médias gouvernementaux ou affiliés à un État. La chaîne de télévision russe RT France est qualifiée de « Média affilié à un État, Russie » alors qu’en parallèle, les chaînes publiques France Culture, France Inter ou encore la BBC sont des « organisations de médias financées par un État mais dotées d’une indépendance éditoriale » selon la politique de Twitter. Le fait de montrer ou non certaines informations n’est pas neutre : cela correspond à une certaine vision du monde que les plateformes tentent de diffuser massivement. Cette stratégie contribue également à l’encerclement cognitif des utilisateurs, en créant une dépendance à leurs services via l’utilisation des algorithmes pour les enfermer dans une bulle informationnelle.
D’autre part, les réseaux sociaux apparaissent de plus en plus comme un outil de gouvernance susceptible d’être utilisé par les élites politiques pour servir leurs intérêts. En effet, certaines injonctions étatiques peuvent aller à l’encontre des intérêts économiques des plateformes et vont pousser ces dernières à collaborer. Ainsi, suite à une demande formulée en avril par le Premier ministre indien Narendra Modi, Facebook, Instagram et Twitter ont accepté de supprimer certains messages critiquant la gestion de la crise sanitaire par le gouvernement indien. Enfin, la limitation de la diffusion d’un article paru en octobre 2020 dans le New York Post susceptible d’impacter la campagne présidentielle de Joe Biden est un exemple parlant de la capacité des plateformes à moduler l’importance d’une information et d’en réguler la viralité. L’article indiquait que le fils de Joe Biden avait été rémunéré par une entreprise ukrainienne souhaitant profiter de l’influence de son père. Peu après sa publication, Andy Stone, un responsable des relations publiques de Facebook a indiqué sur Twitter que Facebook réduisait sa diffusion. En parallèle, Twitter a « interdit à ses utilisateurs de partager tout lien vers l’enquête du New York Post avant de suspendre le compte du quotidien ».
Loin de promouvoir le lien social entre les individus et une réelle entente entre les différentes communautés qu’ils constituent, les médias sociaux sont des entreprises privées dont l’objectif premier est la recherche du profit. Ainsi, le choix des contenus qui seront massivement vus ou non par les utilisateurs se fait en fonction du rendement que ceux-ci peuvent apporter aux plateformes. Certes, les mesures adoptées par les GAFA pendant la crise sanitaire et lors des périodes électorales illustrent leur volonté de limiter la diffusion de fausses informations et de ne pas apparaître comme vecteurs de leur propagation. Néanmoins, le risque associé à la suppression de contenus non conformes au « consensus » général ou en opposition avec la politique d’un État est celui de voir apparaître une information formatée ne pouvant faire l’objet d’aucune remise en question. Alors même que les débats et affrontements d’idées est ce qui a permis aux plateformes de prospérer et de s’enrichir, les mesures mises en œuvre aboutissent à un contrôle du débat public et à une restriction de ce qui peut être discuté ou non au sein de l'opinion. Or, comme l’a indiqué la Cour européenne des droits de l’homme en 1998, « peu importe que l’opinion [soit] minoritaire et qu’elle [puisse] sembler dénuée de fondement : dans un domaine où la certitude est improbable, il serait particulièrement excessif de limiter la liberté d’expression à l’exposé des seules idées généralement admises ».
Juliette Biau du Club Droit et IE de l'AEGE
Pour aller plus loin :
- Régulation des GAFA, le réveil européen ?
- Vers une guerre informationnelle permanente autour des campagnes antitrusts contre les GAFAM en Europe