nimporteou.com
Actualité Numérique

Facebook et sa « Cour suprême » en quête de légitimité


À la suite des événements du Capitole, plusieurs entreprises de réseaux sociaux se sont résolues à fermer les comptes de celui qui était encore le président des États-Unis, fondant leur décision sur les appels à la violence qu’il avait relayés sur leurs plates-formes. Que les commentateurs, analystes et membres de la classe politique approuvent ou non cet ostracisme numérique, ils se rejoignent sur un point : il existe un gouffre béant entre la portée de cette décision et la légitimité de ceux qui l’ont prise.

En soi, ce type de décisions n’est pas nouveau, puisque des millions d’utilisateurs ont déjà été bannis de ces espaces en ligne. Cependant, l’application de cette mesure à une figure politique de premier plan confère à ce cas précis une prééminence jusque-là inégalée.

Intensément débattues dès leur annonce, ces décisions ont mis en lumière une réalité qu’il était déjà difficile d’ignorer : le pouvoir considérable détenu par les entreprises qui contrôlent ces réseaux sociaux, notamment en matière de régulation du discours public en ligne. Même les dirigeants de Twitter et Facebook reconnaissent ouvertement que c’est une responsabilité qu’ils souhaiteraient ne pas avoir à assumer seuls.

C’est précisément dans le but de déléguer une partie de ce pouvoir décisionnel que Facebook a récemment créé une instance présentée comme indépendante et à qui reviendrait le dernier mot sur les questions les plus sensibles de modération de contenus sur sa plate-forme.

Le « Conseil de surveillance » de Facebook, une expérimentation longuement mûrie et encore naissante

Bien que les médias parlent souvent d’une « Cour suprême », il s’agit en réalité d’un « Conseil de surveillance » (Oversight Board). Cette différence terminologique n’est pas innocente car ces expressions relèvent de champs lexicaux bien distincts (ceux de l’État de Droit et de l’entreprise), ce qui est révélateur des différentes perceptions et attentes qui existent à son égard.

Lancée en 2018 par Mark Zuckerberg, l’idée de créer une instance indépendante qui pourrait trancher les questions les plus sensibles en dernier recours a mis du temps à se matérialiser puisqu’elle n’a abouti qu’en octobre 2020. Ce délai s’explique en partie par la longueur du processus de définition des règles et des contours de cette entité, accompagné de visibles efforts de consultation dans l’objectif d’en renforcer la légitimité et donc la capacité future à s’affirmer dans un rôle que Facebook n’a pas été en mesure d’assumer elle-même de façon satisfaisante.

Ce Conseil est conçu comme une réponse aux injonctions contradictoires fréquemment émises contre cette plate-forme (et bien d’autres) : respecter la liberté d’expression de ses utilisateurs, tout en empêchant la diffusion de contenus jugés dangereux. Une quadrature du cercle d’autant plus difficile à résoudre que l’image de l’entreprise a été sérieusement écornée au cours des dernières années. En outre, impossible de se reposer sur la simple application des lois en la matière, celles-ci brillant pour l’instant par leur fragmentation le long de lignes nationales, voire par leur absence pure et simple.

La création du Conseil s’inscrit dans la stratégie de Facebook, jusque-là hésitante, pour faire face à ce problème. En l’occurrence, il s’agit plutôt de le contourner, en le délégant à un organe susceptible de doter les décisions mises en œuvre par Facebook – et non plus nécessairement prises par la compagnie elle-même – d’une forme de légitimité basée sur le statut et la diversité de ses membres, la transparence des décisions adoptées ainsi que l’indépendance de la structure vis-à-vis de l’entreprise et donc des motivations qui lui sont propres. Implicitement, la compagnie cherche à mobiliser une légitimité alternative à la démocratique, qui est dans les faits du ressort des gouvernements nationaux, ou du moins de ceux qui se revendiquent de ce type de système.

Par le biais du Conseil, Facebook cherche ainsi à prendre ses distances avec une tâche ingrate et à se retrancher, à terme, dans une fonction qui s’assimilerait davantage à celle d’un hébergeur qu’à celle d’un éditeur.

« Idéalement » composé de quarante membres (article 1.4 de son statut), le Conseil n’en compte pour l’instant que la moitié, signe qu’il se trouve encore en phase de démarrage. Le 28 janvier, il a rendu publiques ses toutes premières décisions sur les cinq cas qu’il avait sélectionnés début décembre, ordonnant l’annulation de la décision initialement prise par Facebook dans quatre de ceux-ci.

Les choix de Facebook parmi les différentes modalités de saisine

Il existe deux canaux par lesquels un cas peut être présenté au Conseil : soit par un utilisateur faisant appel d’une première décision, soit par Facebook elle-même. Le Conseil est libre de donner suite ou non à ces sollicitations et sa décision aura une valeur obligatoire. Par ailleurs, Facebook peut également solliciter une « orientation politique » (policy guidance) au Conseil, qui n’aura, elle, qu’un statut de recommandation.

Le 21 janvier, deux semaines après avoir suspendu les comptes Facebook et Instagram de celui qui était encore président des États-Unis, l’entreprise californienne a décidé de soumettre ce cas à son Conseil de surveillance, sous la forme de deux points : le premier demande de statuer sur le bien-fondé de cette décision, avec la possibilité de l’annuler, tandis que le second sollicite « des observations ou recommandations sur les suspensions lorsque l’utilisateur est un responsable politique ».

L’entreprise aurait parfaitement pu se limiter au second point, qu’elle aurait été libre d’appliquer à sa guise au cas précis des comptes de Donald Trump, au lieu de s’exposer au risque de se voir obligée de rétablir les comptes en question. Peut-être se sentait-elle confiante d’être confortée dans sa décision, comme suggéré par Nick Clegg, vice-président chargé des « Affaires globales » dans une déclaration en ligne. Les décisions du Conseil sur les cinq premiers cas ne se sont pourtant pas montrées tendres avec Facebook, mais celles-ci n’ont été rendues publiques qu’une semaine après la saisine sur le cas Trump.

Facebook a pu craindre que n’activer que le mécanisme non contraignant aurait été perçu comme une initiative trop timorée. À l’inverse, procéder à ce que certains analystes ont décrit comme un « pari » est le signe que, cette instance existant désormais, il devient difficile de la maintenir à l’écart, ou dans un rôle mineur, une fois que surgissent des situations sensibles.

La compétence du Conseil pour statuer sur la fermeture de comptes ne va pas de soi

Dans son article 2, la Charte du Conseil insiste lourdement sur le fait que sa mission est axée sur les contenus. Or, la fermeture des comptes de Trump n’entre pas dans ce cas de figure : il n’est pas ici question de statuer sur le rétablissement ou non des messages de Trump que Facebook a considérés comme enfreignant ses règles contre l’incitation à la violence, mais de déterminer si la publication des contenus en question est de nature à justifier une exclusion de la plate-forme pour une durée indéterminée. En d’autres termes, la décision ne porte pas sur les contenus eux-mêmes, mais sur les conséquences, pour l’utilisateur, de leur publication.

Pourtant, c’est sans la moindre réserve que les membres de l’organe ont accepté d’examiner ce cas, le jour même de la saisine, soulignant même que « le Conseil de surveillance a été lancé précisément pour traiter des problèmes à fortes implications comme celui soulevé par cette affaire ». Aucune allusion n’est faite à l’élargissement du champ de compétences que cela suppose : cette tendance expansionniste, qui se présente dans toute organisation investie d’une mission propre, n’aura en l’occurrence pas tardé à se faire jour.

En transmettant le cas au Conseil selon les modalités qu’elle a choisies, l’entreprise californienne pense sans doute prendre un risque calculé : certes, elle s’expose à l’éventualité de voir une de ses décisions annulées et de devoir faire marche arrière. Mais les enjeux sont désormais moindres, car la suspension du compte avait été décidée « pour une durée indéterminée et pour au moins deux semaines », c’est-à-dire jusqu’au terme du mandat de Trump.

Ce n’est pas une coïncidence si la saisine est intervenue à l’expiration de cette période que Facebook considérait comme la plus sensible, soit pour les risques réels que représentait l’utilisateur Trump alors qu’il occupait encore la Maison Blanche, soit pour les procès en irresponsabilité dont elle aurait été la cible. À l’heure actuelle, la présence ou non sur son site de celui qui n’est désormais plus président est devenue une question secondaire, raison pour laquelle l’entreprise préfère devoir mettre en œuvre n’importe quelle décision issue d’un organe indépendant que prendre elle-même cette décision et devoir en assumer les retombées.

Cependant, à plus long terme les implications de cette décision peuvent s’avérer plus risquées, car Facebook transmet ce cas si sensible à une institution qui pourrait s’en trouver fragilisée.

Un Conseil rapidement soumis à son baptême du feu

L’organe indépendant dispose d’un maximum de 90 jours pour émettre son verdict. Dans les faits, un panel de cinq membres désignés aléatoirement délibérera sur le sujet puis présentera sa décision au Conseil dans son ensemble, où une majorité devra l’approuver. Si ce n’est pas le cas, un nouveau panel sera désigné avec la même mission.

Au vu du nombre de réactions suscitées, sur les médias « sociaux » comme sur les traditionnels, par la fermeture des comptes de Trump, il ne fait aucun doute que le cas d’espèce est particulièrement sensible. Le statut du personnage, ainsi que ce qui est en jeu (la présence en ligne, non pas d’un simple contenu, mais d’un influent utilisateur) place ce cas dans une catégorie distincte de ceux traités jusqu’à présent, qui avaient moins de poids pour eux-mêmes que pour la série de contenus semblables représentés par chacun d’entre eux.

Quelle qu’elle soit, toute décision sur un sujet aussi polémique ne manquera pas d’attirer de vives critiques d’un côté ou de l’autre, d’autant plus qu’à ce stade de sa courte existence le Conseil ne peut se prévaloir d’une autorité et d’une légitimité amplement reconnues. À supposer qu’il les acquière un jour, cela ne saurait être que le produit d’une période prolongée au cours de laquelle il aura fait la preuve de sa compétence, de son impartialité et de sa respectabilité. Devoir prendre position sur un sujet aussi brûlant et clivant n’est sans doute pas la meilleure des façons de s’engager dans ce long processus.

S’il valide la fermeture des comptes de façon définitive, le Conseil sera dépeint comme une simple chambre d’enregistrement. Dans le cas contraire, il sera accusé de chercher à afficher son indépendance, en rejetant par principe les décisions de Facebook. Il est donc fort probable qu’il opte pour une voie médiane, par exemple en validant la fermeture des comptes sur la période écoulée tout en remettant en cause son caractère indéterminé dans le temps. Ce qui ne le protégerait pas non plus des critiques, cette fois pour sa supposée tiédeur.

Dans tous les cas, le verdict du Conseil aura un écho certain, ce qui contribuera à augmenter sa propre notoriété. Avec le risque cependant de se voir accoler, dans une opinion publique peu encline à la nuance, une étiquette pro ou anti-Trump bien éloignée du fond de son raisonnement.

Les effets à longue portée de la décision à venir : des retombées au-delà de Facebook et de Trump

En prenant position sur le traitement réservé à Trump sur les plates-formes de Facebook, le Conseil aura également, par ricochet, un impact sur la légitimité des mesures de même nature prises par de nombreuses autres entreprises numériques à l’encontre de l’ex-président.

Même si celles-ci ont agi sur la base de leurs propres conditions d’utilisation, elles ont toutes invoqué la dangerosité, en particulier pour la vie des personnes, des messages diffusés. Il serait donc inconfortable, pour des compagnies comme Twitter ou YouTube, de maintenir un ban contre l’ex-dirigeant si le Conseil de surveillance de Facebook se prononçait contre cette mise à l’écart. La portée de ses conclusions est d’autant plus susceptible de s’étendre aux pratiques d’autres corporations qu’il est composé de personnalités neutres et reconnues pour leurs compétences.

Une forme d’« extraterritorialité » serait donc en cours d’émergence dans le cyberespace, si les normes produites par cette entité indépendante mise sur pied par Facebook venaient à irriguer de façon informelle les processus de prise de décision d’autres compagnies numériques – du moins sur les sujets pour lesquels les règles applicables sont censées être similaires.

Il n’est d’ailleurs pas à exclure qu’à terme la compétence du Conseil de surveillance soit étendue à d’autres plates-formes qui choisiraient d’avoir également recours à ses services : c’est même une hypothèse ouvertement suggérée par Nick Clegg. Une telle éventualité semble aujourd’hui lointaine mais elle pourrait sembler inévitable si l’extraterritorialité évoquée plus haut venait à prendre corps à la suite de plusieurs décisions sur des sujets du même acabit que l’actuel.

D’autre part, la portée de ce cas dépasse la situation particulière de Trump car il n’a été ni le premier ni le seul dirigeant à diffuser en ligne des messages qui vaudraient une suspension à tout utilisateur moyen. Jusqu’à présent, la valeur informative (newsworthiness) des déclarations des décideurs permettait de justifier le maintien en ligne de contenus violant pourtant de façon franche les règles propres du réseau social.

Au même titre que les autres plates-formes, Facebook a éprouvé les pires difficultés à gérer les discours politiques outranciers, se limitant dans le meilleur des cas à les accompagner de légendes d’avertissement. Il aura fallu que Trump procède ouvertement à un appel à la violence et à l’insurrection – et que celles-ci se matérialisent sous nos yeux incrédules – pour qu’une ligne rouge soit enfin déclarée franchie.

Il apparaît donc clairement qu’un équilibre reste à trouver entre la valeur informative des propos tenus par les dirigeants politiques, qui semble surpondérée, et le respect des conditions d’utilisation – voire des droits de l’homme.

Facebook a bien conscience des limites de sa propre légitimité pour statuer sur le cas particulier de Trump et pour établir la règle générale applicable à l’expression des gouvernants sur sa plate-forme. D’où le transfert de ces questions à une instance censée être mieux équipée en la matière. C’est en effet un pari : d’abord pour le Conseil lui-même, et donc indirectement pour Facebook, qui a tout intérêt à ne pas voir son initiative compromise dès sa mise en place.





Barthélémy Michalon, Doctorant en Sciences Politiques, mention Relations Internationales, Sciences Po

Cet article est republié à partir de The Conversation sous licence Creative Commons.

Autres articles à lire

Paradoxalement, le crowdfunding sous-utilise le potentiel de la foule

adrien

prendre sa part dans la transition écologique

adrien

« Métavers » : le nouvel Eldorado ?

adrien

Mieux comprendre le potentiel géothermique des Pyrénées grâce à l’imagerie sismique et au numérique

adrien

« Mr. Robot », le hacker et sa toile

adrien

Artisans, le développement de l’activité numérique n’a jamais été aussi simple !

adrien