Jusqu'à quel point ce que l'on fait sur Facebook influence-t-il le contenu que l'on voit et jusqu'à quel point tout ceci relève des propres règles de ce média social? Est-on entrain de minimiser la puissance du plus grand réseau de médias sociaux sur la planète?
L’année dernière, la question du contrôle de Facebook sur ce que ses utilisateurs voient et publient a atteint un point culminant. Bien qu’il ait toujours été évident que Facebook contrôle des choses, une succession récente d’interdictions de certains utilisateurs et affichages a poussé les gens à se poser des questions sur la manière et le niveau du contrôle qui devrait être permis à Facebook en rapport avec tout ce qui s’y partage. Des inquiétudes ont été soulevées concernant la manière et le contenu de ce que Facebook décide de laisser à l’appréciation de chaque utilisateur et sa responsabilité dans ce domaine, le cas échéant. A la suite des allégations selon lesquelles des fausses nouvelles sur Facebook ont peut-être influencé le vote des électeurs lors de la dernière élection américaine et des statistiques montrant que 88% de la génération des jeunes adultes reçoivent, de nos jours, certaines de leurs informations via Facebook, comprendre ce que ces utilisateurs consomment sur ce media social devient de plus en plus important.
Algorithmes et confirmation des partis-pris
Quand quelqu’un se connecte à Facebook et navigue à travers le flux de nouvelles, que cherche-t-il vraiment? Au cours de l’histoire de Facebook, la réponse à cette question a évolué de nombreuses fois. Le gigantesque média social emploie un ensemble d’algorithmes toujours changeant qui utilisent des données fondées sur l’activité passée de chaque utilisateur pour prédire ce qu’ils trouveront de plus intéressant et utile, quel qu’en soit le nombre, émanant de leurs amis, des groupes et des pages publiées. Ces algorithmes ont une influence profonde sur ce qui apparaît dans le flux d’information d’un utilisateur et le code derrière celui-ci est un secret commercial de Facebook.
En 2015, de nombreuses organisations sans but lucratif ont constaté que la fréquentation de leurs publications diminuait et que de moins en moins de gens voyaient leur contenu. Même les gens qui avaient « aimé » la page Facebook d’une ONG ne voyaient pas tout ce qui y était publié. Une partie de ce phénomène s’explique par la hausse du niveau des contenus concurrents sur Facebook, mais l’autre facteur, c’est un changement dans l’algorithme des flux de nouvelles qui a bloqué ce que Facebook a établi comme étant des affichages « trop promotionnels » émanant des flux des gens.
C’est une bonne chose si cela signifie que les gens voient moins de publicité, qu’ils trouvent par ailleurs ennuyante, mais cela signifie aussi que, pour rester compétitif, les organismes sans but lucratif doivent se décider à payer Facebook pour augmenter la visibilité de leurs publications.
Il est frustrant pour les utilisateurs de ne pas savoir ce qui détermine réellement leur accès à des publications spécifiques, et de sentir qu’on y a été poussé malgré soi. Toutefois, leurs propres actions – leurs choix en termes d’amis et de ce qu’ils « aiment » – font partie de la façon dont les algorithmes sélectionnent ce qui apparaîtra dans leurs flux d’informations.
La combinaison des choix personnels et d’algorithmes sur Facebook crée une situation dans laquelle nombre d’entre nous ne voient de plus en plus que du contenu conforme à ce que nous avons déjà « aimé ». C’est parce que les algorithmes sont conçus pour montrer aux gens que ce qu’ils déterminent sera le contenu le plus attrayant pour eux, et si nous, en tant qu’utilisateurs, continuons à « aimer » ce que nous aimons déjà, il y a un risque de confirmation des partis-pris. Les utilisateurs finissent dans une bulle où ils sont de moins en moins susceptibles de voir des points de vue différents.
Mark Zuckerberg, PDG du géant média social, soutient que les médias sociaux sont plus diversifiés que n’importe quel autre média, et rejette l’accusation selon laquelle Facebook crée des bulles de filtrage. Pourtant, de nombreuses voix, dont celles des médias sérieux et des propres chercheurs de Facebook, ne partagent pas l’affirmation de Zuckerberg. Les bulles ont été différemment décrites comme « un labyrinthe de jardins fortifiés » et « des chambres d’écho en ligne » menant des utilisateurs à une vision de tunnel et un manque d’intérêt pour la recherche de points de vue contraires. Une évaluation d’une recherche interne de Facebook a déclaré: « Vous voyez moins de nouvelles que vous n’approuvez pas mais qui sont partagées par vos amis parce que l’algorithme ne vous les montre pas à vous ».
Politiques de contenu
Les célèbres normes communautaires de Facebook exposent les grandes lignes de type de contenu que les utilisateurs peuvent et ne peuvent pas publier, et décrivent comment le contenu offensant peut être signalé à Facebook. Par exemple, certaines images de nudité et celles qui font l’apologie de la violence ne sont pas autorisées.
Au début de cette année, il y a eu interdiction temporaire de la Terreur de la guerre, de la fameuse photo de la « fillette brulée au napalm », et, plus récemment encore, une vidéo « choquante » de sensibilisation au cancer du sein a été retirée.
Facebook dit que ses politiques « peuvent parfois être plus radicales qu’elle ne le souhaiterait et restreindre le contenu partagé pour des motifs légitimes ». Au cours de la dernière année, il y a eu de nombreux cas de restrictions de contenu, qui ont été par la suite autorisés après qu’il a été jugé qu’ils avaient été affichés pour des « raisons légitimes ».
Y a-t-il vraiment un problème s’il existe un mécanisme de correction qui marche – si Facebook surveille le contenu choquant et corrige des erreurs quand elles se produisent ? Cela peut arriver lorsque, par exemple, le contenu est inopportun. Lorsque la petite amie de Philando Castille – un Africain-Américain tué par balle par la police – a diffusé en direct une vidéo de l’acte posé pour montrer au monde la vérité sur ce qui s’est réellement passé, la vidéo a été brièvement retirée en raison d’un « problème technique ». Facebook a également été accusé d’avoir censuré la vidéo.
Mais il y a un autre problème. La responsabilité des utilisateurs à comprendre, en premier lieu, les politiques de Facebook est énorme. Combien d’utilisateurs les lisent-ils réellement? Et combien peuvent-ils les trouver dans leur propre langue? Bien que l’interface de Facebook soit disponible dans plusieurs langues, les Normes communautaires et les paramètres de confidentialité ne le sont pas. Par exemple, si vous choisissez de modifier les paramètres de la Norme communautaire pour la lire en kinyarwanda (une langue parlée au Rwanda), le contenu reste en anglais. En outre, les contrôles de la vie privée en particulier ont été notoirement difficiles d’accès, même dans sa langue maternelle.
À un niveau le plus élevé, il y a des préoccupations au sujet des motivations cachées derrière certaines restrictions, de même qu’il y a la question des responsabilités de Facebook face à ses utilisateurs d’une part et à la communauté mondiale d’autre part.
Après les avoir réintégrés, les raisons données par les porte-parole de Facebook pour supprimer des profils et des pages deviennent assez récurrentes – en général, il n’y a pas d’explication du tout: « Les pages ont été supprimées par erreur », « un de nos filtres automatisés a fonctionné de manière incorrecte » ou « c’était un problème technique ». Des variantes de ces pseudo-raisons ont été avancées pour justifier une multitude de suppressions de page, qui vont des groupes pro-Bernie Sanders enlevés en avril, juste avant l’annonce officielle de sa candidature pour la nomination aux primaires du Parti démocrate jusqu’à la suppression de la vidéo du meurtre par balle de Philando Castille en passant par la suppression de deux pages Facebook des libertaires au motif de violation des normes par des publications nos spécifiées par ailleurs et la désactivation de plusieurs comptes des journalistes palestiniens. Dans ce dernier cas, plusieurs éditeurs d’au moins trois différents médias ont découvert que leurs comptes avaient été désactivés au moment où ils tentaient de se connecter. Ceci est intervenu à la suite de l’annonce d’un accord entre Facebook et le gouvernement israélien pour contrer « les incitations ». Cette situation a conduit certains journalistes palestiniens à penser que, dans le cadre de cet accord, ils avaient été ciblés.
Tous ces exemples ont un élément commun : le discours politique. Le média en ligne Buzzfeed a rapporté que Facebook n’a pas répondu aux questions de savoir si le géant des médias sociaux réexaminerait sa tendance à museler arbitrairement les discours politiques significatifs.
Désinformation
En outre, il y a la question de l’information erronée et intentionnellement trompeuse qui a été répandue, par erreur, aux utilisateurs de Facebook. En août dernier, après que Facebook ait été confronté à une vague de critiques selon lesquelles l’intervention humaine avait joué un rôle important dans le choix des tendances de ses thèmes – qui n’étaient pas choisies uniquement par l’algorithme, comme on le pensait auparavant – la compagnie a supprimé le facteur humain. Juste quelques jours plus tard, la désinformation a commencé à envahir les flux d’information des utilisateurs. Les utilisateurs qui ont tapé le nom de la journaliste de Fox News Megyn Kelly ont découvert, entre autres manchettes tendancieusement scandaleuses et offensantes, un gros titre avec des faits imaginaires disant qu’elle avait été renvoyée par Fox.
Mais le scandale des Sujets-tendance n’est pas la seule voie par laquelle des fausses nouvelles font leur entrée dans le flux d’informations des utilisateurs. L’algorithme exact de Facebook ne pourrait être qu’un mystère, mais on sait qu’en plus de nous montrer des histoires similaires à celles que nous avons déjà aimé, elle nous montre aussi des histoires que beaucoup d’autres personnes ont aimé, que leur contenu soit vrai ou faux. L’algorithme ne tient pas compte de la véracité ou non d’une histoire donnée. Tant que cette histoire est lue et cliquée, elle se rangera en tête du lot de nouvelles. Le système de contrôle des faits de Facebook ne peut pas analyser tout ce qui est publié par ses plus d’un milliard d’utilisateurs à travers le monde entier.
This Facebook trending story is 100% made up.Nothing in it is true.This post of it alone has 10k shares in the last six hours. pic.twitter.com/UpgNtMo3xZ
— Ben Collins (@oneunderscore__) November 14, 2016
Cette histoire de tendances Facebook a été inventée à 100%. Rien n’est vrai. Cet affichage à lui seul a été partagé 10 mille fois au cours des six dernières heures.
Mais Facebook a-t-elle la responsabilité de s’assurer que tout ce qui est publié est vrai? Alors que plus de la moitié des Américains reçoivent quelques informations de Facebook et que ce sont les cadres supérieurs qui dirigent la politique de contenu et font des appels de jugement éditorial, Facebook nie être une compagnie médiatique. Mark Zuckerberg soutient que Facebook est une compagnie de technologie qui offre aux médias le support et des outils pour partager leurs histoires, mais que puisque Facebook ne crée pas son propre contenu, elle n’est donc pas une société médiatique. Même si elle héberge, distribue et bénéficie du contenu de la même façon que les autres médias.
A peine cette semaine, Facebook a annoncé qu’elle bloquerait les publicités affichant de fausses nouvelles, une initiative visant à la rendre moins lucrative pour annoncer des histoires fausses. C’était, en partie, une réponse aux allégations selon lesquelles de fausses nouvelles sur Facebook pendant la campagne présidentielle américaine finissaient par captiver les électeurs et influencer leur jugement des candidats.
Toutefois, en ce qui concerne la vérification et l’élimination des fausses nouvelles que les utilisateurs partagent à titre individuel, Facebook n’a aucune intention de le faire. Dans ce monde post-vérité, le modèle d’affaires de Facebook repose sur le fait de cliquer, le partage et le contenu attachant, et non sur la crédibilité de son contenu.
Acheteur prenez garde.
Restez branché pour la deuxième partie de notre plongée dans les méandres de Facebook, où nous prenons possession du service Free Basics de Facebook et de son objectif pour l’Internet gratuit pour tous. Quel est le coût réel et quelles sont les implications pour la libre circulation du trafic en ligne et pour l’accès à celui-ci?
La couverture du journal « Aftenposten » de la Norvège avec une lettre ouverte à Mark Zuckerberg, l’accusant de menacer la liberté d’expression et d’abuser du pouvoirNTB Scanpix / Cornelius Poppe / via REUTERS