La question des bulles de filtrage – ou bulles de filtres – a resurgi avec force au lendemain de l’élection de Donald Trump, tous les médias ou presque cherchant désespérément à expliquer comment l’hypothèse même de la victoire de ce candidat avait pu leur échapper. Pourquoi aucun n’a-t-il cru que cela pouvait arriver, de même que, quelques mois plus tôt, aucun n’avait parié sur une possible victoire des partisans du Brexit ?
Plus près de nous, en France, personne ne donnait François Fillon gagnant aux primaires de la droite, pas plus que Benoît Hamon à celles de la gauche dite de gouvernement…Parmi les diverses raisons avancées pour expliquer ces pronostics erronés et cette épidémie de cécité médiatique, on trouve les fameuses bulles de filtrage. Voyons de quoi il s’agit. N'hésitez pas à donner votre avis en commentaires ou sur Twitter. Suivre @digimind_FR
Le concept de bulles de filtres a été développé par Eli Pariser dans son livre « The Filter Bubble: What The Internet Is Hiding From You » publié en mai 2011 aux États-Unis (traduit en espagnol, en portugais, en allemand, en japonais, mais, à ma connaissance, pas en français). L’auteur avait présenté son concept en février 2011 lors d’une conférence TED fort remarquée et que vous pouvez revoir ici. Il y explique que les algorithmes de personnalisation de contenu des géants du web – de Google à Facebook, en passant par Amazon et Netflix – enferment progressivement chaque internaute dans une bulle où il se voit uniquement proposer des choix, des contenus, des produits, et même des « amis » correspondant à ses goûts, attentes et opinions supposés.
Conséquence : chacun finit par vivre dans un petit monde douillet – sa bulle – où il ne croise que des choses qu’il aime et des gens avec lesquels il est d’accord, ce qui le persuade que tout le monde vit et pense comme lui. Voilà pourquoi, cultivant à leur insu un entre-soi de plus en plus marqué – sur Twitter, Facebook et via leurs outils de veille – les journalistes des grands médias d’information seraient complètement passés à côté de certaines réalités : l’Amérique pro-Trump, le Royaume-Uni pro-Brexit, sans parler des sphères interlopes où prospèrent les sites complotistes et conspirationnistes en tous genres…
Inutile de dire que tout le monde n’est pas d’accord avec cette explication ! Dès que l’on a commencé à parler de bulles de filtrages, des voix se sont élevées contre cette théorie. Par exemple, dans cet article de 2011, Jacob Weisberg, président et rédacteur en chef de Slate Group, s’attache à contrebattre l’existence des bulles de filtres et à minimiser le rôle des algorithmes. Il estime notamment que « Pariser se trompe complètement en disant que la personnalisation rétrécit nos perspectives au lieu de les élargir ».
En 2013, des chercheurs de Yahoo! Labs accréditaient plutôt la thèse de Pariser en annonçant avoir inventé un système anti bulle de filtres « incitant les lecteurs à aller vers des contenus émanant de gens pouvant avoir des vues opposées aux leurs, sans pour autant aller à l’encontre de leurs préférences ». Je ne sais pas si ce système existe et fonctionne mais, ce qui est sûr c’est que le débat continue entre ceux qui pensent que les algorithmes des moteurs de recherche et des médias sociaux nous fabriquent des bulles qui nous coupent du reste du monde, et ceux qui soutiennent le contraire.
Il est indiscutable que les algorithmes s’appuient sur nos historiques de comportements online pour nous présenter les contenus et les produits les plus susceptibles de nous plaire. On peut s’en plaindre, mais c’est aussi ce qui contribue à nous fidéliser. Il est tout aussi vrai que, depuis 2009, les résultats des recherches Google sont par défaut personnalisés, ce qui fait que pour la même recherche, vous et moi n’obtenons pas les mêmes résultats. Il est également vrai, comme le souligne cet article, que : « sur certains réseaux sociaux, Facebook notamment, la « décision » de faire apparaître un contenu sur l’écran de l’utilisateur ne se fonde pas exclusivement sur une dynamique évolutive informée des comportements préalables dudit utilisateur, de ses réactions ou absences de réactions à un contenu donné, mais également des comportements de ses « amis ». Accepter une demande d’amitié sur Facebook, c’est donc accepter également que les préférences et comportements de cet « ami » participent à la sélection des informations qui nous seront proposées. » C’est bien de le rappeler, parce que c’est très précisément cette « bulle de relations » que les réseaux sociaux vendent aux annonceurs, avec la promesse de toucher une cible toujours plus qualifiée.
Malgré tout ce qui précède, je continue à penser que les algorithmes ne peuvent pas être tenus pour seuls responsables de nos enfermements cognitifs. Car c’est bien de cela qu’il s’agit, et nous n’avons évidemment pas attendu les filtres de Facebook ou Google pour nous fabriquer, sans recourir au moindre algorithme, des bulles socialement confortables parce que rassurantes… Notre cerveau y arrive très bien tout seul !
Nous aimons tous nous raconter que nous prenons des décisions rationnelles et que nos choix sont avant tout guidés par la raison. Cela nous donne un sentiment de maîtrise sur nos vies, sur notre environnement… Sauf que ce n’est pas vrai ! Les sciences cognitives ont mis en évidence que nos actes et nos décisions sont largement régis par une foule de raccourcis mentaux – ou biais cognitifs – dont nous n’avons pas conscience. L’un de ces biais – le biais de confirmation – veut que nous privilégiions spontanément ce qui va dans le sens de ce que nous pensons ou croyons. Les filtres algorithmiques – qui visent à nous présenter ce qui, au vu de nos comportements antérieurs, va nous attirer et nous plaire – ne font qu’amplifier cette tendance que l’on peut qualifier de naturelle.
Évidemment, cette amplification pose de très sérieux problèmes sociétaux. La plupart des articles que j’ai lus sur le sujet reflètent l’inquiétude de leurs auteurs sur l’avenir de la démocratie, sur l’émergence d’une société gouvernée par des algorithmes qui sont autant de boites noires, sur la déréalisation du monde, la disparition de l’altérité, de la pluralité ou de la vérité. Ce n’est pas vraiment réjouissant…
Je vais peut-être vous décevoir, mais je n’ai pas de solution miracle ☺. La seule solution technique que j’ai croisée au fil de mes lectures concerne Google. Elle consiste à désactiver la personnalisation résultats en commençant par naviguer en mode privé. C’est assez simple, mais cela ne résout pas les autres problèmes que posent les bulles de filtrages, notamment sur les réseaux sociaux. D’ailleurs, je suis preneuse d’informations sur toute technique ayant fait ses preuves dont vous auriez connaissance.
A part les solutions techniques, je ne vois que deux moyens de lutte vraiment efficace contre l’enfermement cognitif et relationnel dans nos bulles de filtrage respectives : d’abord, l’éducation, dès le plus jeune âge, pour développer le sens critique, l’empêcher de s’endormir et faire échec à la crédulité; ensuite, la déconnexion régulière, pour rencontrer plus de gens en vrai, s’apercevoir qu’ils ne pensent pas tous ce qu’on imagine qu’ils pensent, et que c’est infiniment plus riche que si on pensait vraiment tous la même chose !
Et vous, avez-vous conscience de votre bulle de filtrage lorsque que vous naviguez sur le web et les réseaux sociaux ?