Aller au contenu

Bulle de filtres

Un article de Wikipédia, l'encyclopédie libre.
Eli Pariser a théorisé le concept de la bulle de filtres.

La bulle de filtres[1] ou bulle de filtrage[1] (de l’anglais : filter bubble) est un concept développé par le militant d'Internet Eli Pariser. Selon Pariser, la « bulle de filtres » désigne à la fois le filtrage de l'information qui parvient à l'internaute par différents filtres ; et l'état d'« isolement intellectuel » et culturel dans lequel il se retrouve quand les informations qu'il recherche sur Internet résultent d'une personnalisation mise en place à son insu. Selon cette théorie, des algorithmes sélectionnent « discrètement » les contenus visibles par chaque internaute, en s'appuyant sur différentes données collectées sur lui. Chaque internaute accéderait à une version significativement différente du web. Il serait installé dans une « bulle » unique, optimisée pour sa personnalité supposée. Cette bulle serait in fine construite à la fois par les algorithmes et par les choix de l'internaute (« amis » sur les réseaux sociaux, sources d'informations, etc.).

Eli Pariser estime que ce phénomène est devenu commun sur les réseaux sociaux et via les moteurs de recherche. Des sites tels que Google[2], Facebook[3], Twitter ou Yahoo! n'affichent pas toutes les informations, mais seulement celles sélectionnées pour l'utilisateur, et de manière hiérarchisée selon ses prédispositions supposées (y compris idéologiques et politiques)[4]. À partir de différentes données (historique, clics, interactions sociales), ces sites prédisent ce qui sera le plus pertinent pour lui. Ils lui fournissent ensuite l'information la plus pertinente (y compris du point de vue commercial et publicitaire), en omettant celle qui l'est moins selon eux. Si les algorithmes considèrent qu'une information n'est pas pertinente pour un internaute, elle ne lui sera simplement pas présentée.

Médiatisé depuis les années 2010, le concept de bulle de filtres a été critiqué pour l'importance qu'il accorde aux algorithmes et aux mesures techniques de personnalisation[5]. Une étude nuance par exemple l'impact de l'éclatement des bulles de filtre sur notre capacité à nous remettre en question[6] et rappelle l'influence encore majeure de la télévision[7].

Grâce à l'Internet, l'information potentiellement disponible ne cesse de croître : elle est en théorie de plus en plus accessible, ce qui permettrait à un internaute proactif de découvrir de nombreux points de vue différents du sien[8]. Mais paradoxalement, selon Bakshy et al. (2015) et d'autres auteurs[9],[10],[11], l'accès réel à l'information de presse, aux opinions et à l'information est de plus en plus filtré par des algorithmes de moteurs de recherche, et/ou via les réseaux sociaux[12].

Des chercheurs ont montré qu'au sein de Facebook, le filtrage algorithmique puis le filtrage par les pairs limite le libre-arbitre de l'internaute en ne lui présentant pas une large part de l'information (et notamment en limitant son accès à des données ou interprétations qui seraient a priori plus difficiles à adopter pour lui[13],[14]) et en ne présentant souvent qu'une partie des facettes d'une information. Les brèves d'information partagées de pair à pair par des millions d'utilisateurs proviennent en effet très majoritairement de sources alignées sur l'idéologie ou les préférences de l'internaute. Le lecteur rencontre 15 % de contenu transversal en moins dans ses fils d'actualité (à cause du classement algorithmique) et il cliquera 70 % moins facilement sur des informations venant de sources inhabituelles pour lui.

Comme dans une chambre d'écho, ce phénomène tendrait à s'auto-entretenir en reproduisant majoritairement les opinions, croyances et perspectives de l'utilisateur en formant un cercle vicieux.

Sur le plan de la diversité des opinions politiques, un effet notable est l'accroissement de la polarisation politique typique des sociétés modernes : les opinions modérées disparaissent; seuls subsistent des opinions situées aux extrêmes.

Effets psychosociaux supposés

[modifier | modifier le code]

Un internaute d'une orientation politique donnée verrait plus de contenus favorables à cette orientation[4]. Il serait moins soumis à des points de vue contradictoires[15] car les algorithmes sélectionneraient pour lui les contenus les plus pertinents, ceux qui lui plaisent le plus. Par exemple, un internaute qui serait identifié comme « de gauche » par le site, se verrait alors proposer moins de contenus « de droite ».

Des requêtes similaires peuvent alors donner des résultats très différents. Supposons par exemple que deux personnes, une plutôt à droite politiquement et l'autre plutôt à gauche, recherchent le terme « BP ». Les utilisateurs « de droite » trouveront des informations sur les investissements dans la British Petroleum. Les utilisateurs « de gauche » obtiendront des informations sur la marée noire dans le golfe du Mexique[16]. Il en va de même pour la présentation des informations relatives à une guerre, par exemple la guerre d'Irak[17] ou plus récemment les informations données aux partisans de Donald Trump aux États-Unis[18].

La bulle de filtres peut influencer les relations sociales et les réseaux sociaux et inversement. Dans certains réseaux sociaux, la personnalisation algorithmique masquerait les messages les moins pertinents, ceux qui seraient les moins cliqués par l'utilisateur. Moins on interagit avec un « ami » Facebook, moins les messages qu'il publie nous seront visibles, moins l'on sera susceptibles d'interagir avec lui. Pariser met en avant la « disparition » des messages de ses amis conservateurs de son flux d'activité Facebook. Alors qu'il avait ajouté des « amis » conservateurs pour lire leur opinion, la personnalisation ne lui suggérait plus les publications venant de ces personnes. Selon l'algorithme, cela n'était pas pertinent pour Pariser : il n'était pas censé cliquer ou lire ces opinions[réf. souhaitée].

La bulle de filtre réduirait donc le champ informationnel de l'internaute ; Selon A Saemmer (2017), de nombreux étudiants disent consulter la presse en ligne exclusivement ou principalement en suivant des liens postés par leurs amis sur les réseaux sociaux, c'est-à-dire sans consulter la « une » ou le sommaire des journaux[19].

Selon Messing (2012), dans un réseau social, des appuis sociaux plus forts peuvent conduire à un buzz qui augmente la probabilité qu'un internaute choisisse de lire un contenu qui sans cela ne lui aurait pas été présenté, ce qui pourrait dans une certaine mesure contrebalancer son exposition sélective initiale[11]. Néanmoins, en 2016 dans un long article, longuement commenté depuis, Katharine Viner, rédactrice en chef du journal The Guardian, estime que le numérique a considérablement ébranlé notre rapport aux faits et que les réseaux sociaux, en particulier, sont grandement responsables de la victoire des partisans (populistes) du référendum sur l'appartenance du Royaume-Uni à l'Union européenne, bien qu'ils aient eux-mêmes reconnu que leurs arguments étaient mensongers. Viner affirme que si les réseaux sociaux colportent volontiers des rumeurs et des « mensonges avérés », cela tient aux bulles de filtres qui, en fonction des pages consultées, renvoient les utilisateurs à ce qu'ils ont l'habitude de consulter et qui, par conséquent tendent à les conforter dans leurs opinions au lieu de stimuler leur esprit critique[20].

Réseaux sociaux

[modifier | modifier le code]

Le succès du Web social et la surcharge d’information que ce succès engendre ont rapidement provoqué le besoin de trier l’information, et de développer les capacités de filtrage des plateformes interactionnelles. Les moteurs de recherche comme Google ou les réseaux sociaux comme Facebook ou Twitter sont programmés pour mettre en avant de l’information dite « pertinente », autrement dit, susceptible d’intéresser l’utilisateur et d’écarter l’information jugée moins pertinente. La popularité des réseaux sociaux réside dans cette capacité à présenter efficacement et rapidement du contenu intéressant pour l’utilisateur[21]. Le filtrage fonctionne grâce à la mise en place d’un algorithme. L’informaticien Gérard Berry parle « d’une façon de décrire dans ses moindres détails comment procéder pour faire quelque chose »[22]. Sur internet, les algorithmes instaurent une hiérarchie dans l’apparition des contenus sur l’interface des utilisateurs. Ils influencent chacun à leur manière l’accès à l’information et fournissent une expérience particulière et personnalisée pour chaque utilisateur. Par exemple, sur les réseaux sociaux, ce sont les « likes » ou les « retweets » qui provoquent la mise en évidence de certains contenus par rapport à d’autres, jugés alors moins pertinents[23].

Depuis 2016, le réseau social Twitter s’est vu introduire un nouveau fil algorithmique. Les utilisateurs qui voyaient auparavant les tweets (les publications faites sur le réseau) apparaître selon un ordre antichronologique verront à la place ces publications selon un ordre de préférence défini par l’algorithme[24]. L’algorithme opère sa sélection de Tweets selon plusieurs critères parmi lesquels peuvent être mentionnés : le nombre de retweet (le nombre de fois que le tweet est publié à nouveau sur le réseau), si l’utilisateur est en forte interaction avec la personne qui tweet ou si cette dernière fait partie de ses favoris. L’algorithme évalue ainsi la pertinence d’un tweet et affichera en haut de flux ceux qui sont le plus susceptibles d’intéresser l’internaute. La suite des tweets, elle, apparaîtra comme avant, selon un ordre antichronologique. Concrètement, la réorganisation chronologique du réseau est marquée par l’introduction de deux nouvelles rubriques. D’abord, le « Timeline classé » ou « chronologie classée » qui fait apparaître les tweets pertinents en haut du flux après une à deux heures de non-utilisation du réseau. Et la rubrique « Vous pourriez aimer » qui remplace l’ancienne « En votre absence », qui se présente comme une fonction complémentaire et qui recense des tweets moins récents puisqu’elle n’apparaît que plusieurs jours après la dernière connexion. L’apport de ce nouvel algorithme à Twitter est multiple selon la firme[réf. nécessaire]. L’introduction d’un algorithme permet à Twitter de mieux connaître ses utilisateurs et la manière dont ils interagissent sur le réseau. Ensuite, il permet d’adapter le contenu en fonction de l’utilisateur et d’ainsi augmenter le dynamisme, l’engagement et l’attention sur la plateforme. Enfin, le système est suffisamment complexe pour offrir à chacun des utilisateurs de Twitter une expérience personnalisée sans que ceux-ci se retrouvent toujours face aux mêmes tweets quand ils se connectent[25].

Le réseau social compte plus d’un milliard d’utilisateurs dans le monde. C’est pourquoi il est impossible pour le site web créé par Mark Zuckerberg en 2004, de montrer tout ce que « nos amis » postent sur la toile : Facebook doit sélectionner les informations. C’est grâce à un algorithme qui se nomme EdgeRank conçu en 2006[26] et abandonné au profit de Newsfeed Ranking Algorithm en 2011 que le réseau social trie ses informations à l’aide de 100 000 paramètres.

Parmi ces paramètres, il y en a quatre qui sont les plus connus[27] :

  • le Créateur : l’intérêt que suscite celui qui a publié le contenu ;
  • le Post : l’engagement que le post a engendré ;
  • le Type : le format que l’utilisateur du réseau social préfère (vidéos, images, statuts…) ;
  • la Récence : en fonction de la dernière date de connexion de l’utilisateur, on peut juger la fraîcheur du contenu publié.

L’objectif pour Facebook est de montrer à chaque utilisateur ce qui va l’intéresser le plus. Et ce qu’il aimera, commentera ou partagera plus facilement. Le but est de créer le plus de réactions du côté des consommateurs du réseau social. Facebook sélectionne donc des contenus qui seront susceptibles d’être intéressants pour les internautes. L’algorithme va procéder à l’aide de différentes étapes qui vont attribuer un score de pertinence à chaque publication et donc déterminer si celle-ci sera publiée ou non sur Facebook. Tout d’abord une série de questions est posée comme : Quelles histoires ont été publiées par les amis ? Qui a posté ces histoires ? Comment on se comporte pour réagir à ce contenu ? Ainsi que l’intérêt porté à cette publication. Toutes ces interrogations vont ensuite être calquées sur chaque post présent sur le réseau social. Les posts publiés par les consommateurs du site web vont ensuite être analysés pour leur donner une importance. Comme par exemple : les commentaires et les tags des amis, quand est-ce que le post a été publié, les retours négatifs donnés à l’auteur, la fréquence à laquelle les posts sont publiés…

Après, l’algorithme va faire plusieurs prédictions :

  • est-ce que l’utilisateur va commenter / partager le post publié ;
  • combien de temps va-t-il passer à l’analyser, le lire ;
  • est-ce qu’il va donner une valeur à ce post ?

Tous ces critères sont analysés avec le fait qu’il y ait un clickbait (signifie littéralement « appât à clics »)[28], de la nudité ou non sur la publication. Ces deux facteurs peuvent toucher négativement le post. Chaque post reçoit une note en fonction des différents facteurs avec lesquels il a été analysé. Ce score est attribué de façon personnelle à chaque personne et est donc en lien avec notre profil, nos relations et nos habitudes sur le réseau social.

Depuis son rachat par Facebook en 2012, les principes de l’algorithme d’Instagram sont calqués sur ceux de Facebook. La parution des publications dans le flux se fait désormais sur base de 3 critères et non par ordre anté-chronologique[29].

  • La popularité des publications selon le temps de la visualisation d’une vidéo, celui d’une délivrance d’un score suivant la consultation d’un profil ou encore l’engagement.
  • Le site fait une estimation, suivant la catégorie de celle-ci, si l’heure de publication est favorable ou non.
  • Les interactions, la détermination de l’importance de comptes et de sujets s’établit suivant le nombre de mention « j’aime » et de commentaires de l’utilisateur d’Instagram (internaute).

La popularité des publications et l’engagement sont les critères les plus importants. Cet algorithme a été mis en place afin que les internautes interagissent sur le réseau. Les stories (publications éphémères[30]) sont une fonctionnalité basée sur le principe du réseau social Snapchat. Mais contrairement à celui-ci, les stories d’Instagram sont classées par l’algorithme qui emploie les données de Facebook. L’algorithme d’Instagram réaménage l’ordre d’apparition des publications, car il semblerait que les internautes ne verraient que 30 % de leur fil d’actualité et passeraient à côté de 70 %. C’est pour cela que l’algorithme fait remonter les publications qui pourraient potentiellement intéresser l’internaute et ainsi ne plus suivre la chronologie des publications[31].

YouTube se différencie des autres réseaux sociaux en étant un site d’hébergement de vidéos. Néanmoins, pour certains auteurs, celui-ci parvient à plonger les utilisateurs dans une bulle de filtre. Son algorithme sélectionne des contenus pour les internautes et il renforce ainsi leurs opinions. À la fin du visionnage d’une vidéo sur la plateforme, l’algorithme propose à l’internaute en recommandation de visionner d’autres contenus étant décrits comme similaires. Cette fonction maintient le visionneur dans une même idée sans le confronter à du contenu opposé.

Quels sont les critères qui vont déterminer le contenu à visionner[32] ?

  • L’historique de l’utilisateur : l’algorithme va analyser les créateurs et les sujets que regarde le plus souvent le visionneur afin de lui proposer un contenu similaire. On remarque que si un internaute regarde plusieurs vidéos d’une même chaîne, YouTube lui proposera ensuite principalement les capsules de ce créateur.
  • Le comportement des autres utilisateurs : des personnes effectuant le même type de recherche, visionnant un même contenu ou étant situées dans la même démographie sont qualifiées « d’utilisateurs similaires ». De ce fait, leurs recherches influencent le contenu de l’utilisateur.
  • Le taux de clic : une vidéo peut être proposée à plusieurs reprises dans les recommandations et les suggestions. Si le visionneur ne clique pas dessus, elle ne lui sera plus suggérée.
  • La nouveauté : les nouvelles capsules sorties par un créateur avec lequel un visionneur est en interaction lui sont montrées.

Le site possède une catégorie « tendances » où différents types de vidéos sont proposés. L’algorithme nous propose ces capsules car il estime que le contenu est de bonne qualité. Pour que le programme informatique puisse évaluer la qualité d’une vidéo, il analyse le temps moyen de visionnage (watchtime)[33] des utilisateurs. Plus une vidéo est regardée longtemps, plus elle est susceptible de posséder un bon contenu que dès lors l’algorithme proposera aux visionneurs.

En 2020, une équipe de chercheurs du Centre Marc Bloch a publié une étude dans le journal PLoS ONE montrant que les vidéos avec un grand nombre de vues ont tendance à favoriser les bulles de filtres — c'est-à-dire le confinement de l'utilisateur à des vidéos similaires à celle qu'il est en train de visionner — alors que celles avec un faible nombre de vues offrent des suggestions plus diverses[34].

Une autre équipe de recherche[35] a montré que YouTube favorise davantage les médias traditionnels et sous recommandent les contenus extrémistes.

De manière générale, l’introduction d’algorithme sur les réseaux sociaux peut mener à des risques. En effet, des universitaires comme le sociologue Dominique Cardon considère que les algorithmes sur les réseaux sociaux tendent à reproduire le réel et perpétuer les structures sociales existantes. Ainsi, ces réseaux sociaux poussent leurs utilisateurs à consommer des contenus qu’ils consultent déjà ce qui peut provoquer une sorte de cloisonnement des utilisateurs dans leur propre conformisme : ils ne verront que le contenu qui leur sera donné à voir, ils risqueraient alors d’enfermer leurs membres dans une « bulle de filtre »[23].

Les bulles de filtres de YouTube conduisent certaines personnes à se persuader que la terre est plate (platosphère), dans la communauté des platistes[36].

Solutions et initiatives

[modifier | modifier le code]

Face à cette situation, plusieurs solutions existent ou semblent envisageables. Chacun pourrait mieux faire valoir son « droit à l'information » et volontairement sortir de sa bulle de filtres, en allant volontairement[Quoi ?] rencontrer des points de vue différents, voire opposés aux siens, et aussi par exemple cultiver un regard critique en étudiant des points de vue émis par des articles relus par des pairs, publiés après le feu de l'actualité, via Google scholar par exemple.

La Cour européenne des droits de l'homme rappelait le 8 juillet 1976 que « Le principe général de tout traitement juridique et éthique de l'information doit se fonder sur une distinction claire entre opinion et information. La première concerne l'expression de pensées, de croyances et de jugements de valeur, et la seconde a trait à des données et à des faits, faits qui peuvent faire l'objet d'une information «ou qui peuvent être d'une importance publique» »[37].

Le PDG de Facebook, Mark Zuckerberg, a minimisé la portée de ce phénomène sur la plateforme qu'il a cofondée[38], mais l'entreprise a tout de même commencé à travailler sur des mesures pour en limiter l'impact[39].

Des sites spécialisés se sont également montés, principalement aux États-Unis, permettant à chacun de prendre conscience de ce phénomène, comme allsides.com[40],[41] ou hifromtheotherside.com[42][source insuffisante].

Certains moteurs de recherche non personnalisés font valoir que leur absence de tri idéologique des résultats de recherche permettait de lutter contre les bulles de filtres. En effet, comme aucune donnée personnelle n'est collectée ou évaluée, aucune bulle de filtre ne peut être créée. C'est par exemple le cas de Qwant ou Ecosia. Enfin, des extensions ont été développées pour des navigateurs web Google Chrome ou Mozilla Firefox permettant de mettre en lumière les bulles de filtres, et contextualiser certaines informations.

En France, le journal Le Drenche propose pour tous les sujets deux avis différents et opposés, avec l'objectif affiché de lutter contre les bulles de filtres[43] ; c'est une technique journalistique connue, qui sous couvert de neutralité tend cependant parfois à privilégier, voire à rechercher les extrêmes au détriment des points de vue nuancés et/ou du pluralisme des opinions.

Critiques du concept

[modifier | modifier le code]

La médiatisation de la théorie de la bulle de filtres d'Eli Pariser se veut participer de l'esprit critique, mais le concept lui-même fait l'objet de controverses.

Pour André Gunthert dans Et si on arrêtait avec les bulles de filtre ? (André Gunthert est maître de conférence à l’École des hautes études en sciences sociales (EHESS), où il occupe la chaire d'histoire visuelle), « le système de sélection de Facebook ne modifie que de 1 % l’exposition aux contenus politiques de camps opposés »[44] ; il donne la parole à Dominique Cardon selon qui « la bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. »

D'autres auteurs ont critiqué la théorie de la bulle de filtre pour sa simplicité réductrice et son manque de preuves empiriques solides. Richard Flechter[45], du Reuters Institute for the Study of Journalism, insiste sur le fait que de multiples facteurs peuvent expliquer les choix des contenus proposés. Des auteurs ont souligné qu'il existe peu de preuves empiriques démontrant que les gens vivent dans une bulle informationnelle fermée[46],[47].

Notes et références

[modifier | modifier le code]
  1. a et b « bulle de filtres », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le ).
  2. Les bulles de filtres mises en place par Google pour faciliter notre recherche présenteraient les informations en fonction « de 57 critères, parmi lesquels notre historique de recherche, notre localisation, le type d'ordinateur que nous utilisons, notre langue, etc. » Gérald Bronner, La Démocratie des Crédules, Presses universitaires de France, (lire en ligne), p. 59.
  3. Wormser G (2017). Building Global Community: La tentation hégémonique de Mark Zuckerberg et de Facebook. Sens Public.
  4. a et b Stroud N (2008), Media use and political predispositions: Revisiting the concept of selective exposure. Polit. Behav. 30, 341–366 |Doi:10.1007/s11109-007-9050-9.
  5. (en) « The truth behind filter bubbles: Bursting some myths », sur Reuters Institute for the Study of Journalism (consulté le ).
  6. « Les “bulles de filtres” : est-ce vraiment la faute d'Internet ? », sur www.franceinter.fr (consulté le ).
  7. Will Oremus, « Dans leur bulle (de filtres), les internautes? Pas si simple… », sur Slate.fr, (consulté le ).
  8. Bakshy E, I. Rosenn, C. Marlow, L. Adamic, Proc. 21st Int. Conf. World Wide Web Pages 1201.4145 (2012).
  9. W. L. Bennett, S. Iyengar (2008), A new era of minimal effects? The changing foundations of political communication. J. Commun. 58, 707–731. doi:10.1111/j.1460-2466.2008.00410.x .
  10. Pariser E (2011), The Filter Bubble: What the Internet Is Hiding from You (Penguin Press, London).
  11. a et b S. Messing, S. J. Westwood (2012), Selective exposure in the age of social media : Endorsements trump partisan source affiliation when selecting news online. Communic. Res. 41, 1042–106.
  12. Eli Pariser, The Filter Bubble: What the Internet Is Hiding from You, Penguin Press (New York, mai 2011) (ISBN 978-1594203008).
  13. Bennett W.L & Iyengar S (2008), A new era of minimal effects? The changing foundations of political communication. J. Commun. 58, 707–731 | doi:10.1111/j.1460-2466.2008.00410.x.
  14. Sunstein C.R (2007), Republic.com 2.0 (Princeton Univ. Press, Princeton, NJ).
  15. (en) USA Today, 29 avril 2011, The Filter Bubble by Eli Pariser. « Pariser explique que nous fournir uniquement ce qui nous est familier et confortable nous ferme aux nouvelles idées, aux nouveaux sujets et à des informations importantes. » — Consulté le 31 janvier 2012.
  16. (en) Interview d'Eli Pariser par Lynn Parramore, The Atlantic, 10 octobre 2010 « Depuis le 4 décembre 2009, Google a été personnalisé pour chacun. Quand ce printemps deux de mes amis ont tapé « BP » sur Google, l'un a obtenu un ensemble de liens portant sur les possibilités d'investissement dans BP. L'autre a obtenu des informations sur la marée noire. » – Consulté le 31 janvier 2012.
  17. S. Kull, C. Ramsay, E. Lewis (2003) , Misperceptions, the media, and the Iraq War. Polit. Sci. Q. 118, 569–598. doi:10.1002/j.1538-165X.2003.tb00406.x.
  18. S. Messing, S. J. Westwood(2012), Selective exposure in the age of social media: Endorsements trump partisan source affiliation when selecting news online. Communic. Res. 41, 1042–1063 .
  19. Saemmer A (2017) Interpréter l’hyperlien en contexte pédagogique: éléments d’une sémiotique sociale. Le français aujourd'hui, (1), 25-34.
  20. How technology disrupted the truth, Katharine Viner, The Guardian, 12 juillet 2016
    Traduction en français : Comment le numérique a ébranlé notre rapport à la vérité, Le Courrier international, 9 septembre 2016.
  21. Bernhard Rieder, « De la communauté à l’écume : quels concepts de sociabilité pour le « web social » ? », tic&société, no Vol. 4, n° 1,‎ (DOI 10.4000/ticetsociete.822, lire en ligne, consulté le ).
  22. « Qu’est ce qu’un algorithme ? », Iakaa Blog,‎ (lire en ligne, consulté le ).
  23. a et b « La société des calculs sous la loupe de la sociologie - A quoi rêvent les algorithmes - Dominique Cardon [lecture] », sur maisouvaleweb.fr (consulté le ).
  24. « L'algorithme de Twitter vous est enfin dévoilé ! », Les digitaux - TEM Marketing Digital,‎ (lire en ligne, consulté le ).
  25. Will Oremus et Antoine Bourguilleau, « Voici comment fonctionne l'algorithme de Twitter », Slate, (consulté le ).
  26. « Comment fonctionne l’algorithme de Facebook ? », sur www.actance.net (consulté le ).
  27. Martin Untersinger, « Comment fonctionne l'algorithme de Facebook ? », Le Monde,‎ (ISSN 1950-6244, lire en ligne, consulté le ).
  28. « Clickbait », sur definitions-marketing.com (consulté le ).
  29. « Comment fonctionne l’algorithme d’Instagram ? », sur www.actance.net (consulté le ).
  30. « Tout ce qu’il faut savoir sur les Stories d’Instagram », Presse-Citron,‎ (lire en ligne, consulté le ).
  31. « L'algorithme d'Instagram : comment en tirer parti ? », French,‎ (lire en ligne, consulté le ).
  32. « Comment fonctionne l'algorithme YouTube ? • GOJI », sur GOJI (consulté le ).
  33. « YouTube : les 2 principaux changements d'algo fin 2016 », WebRankInfo,‎ (lire en ligne, consulté le ).
  34. (en) Camille Roth, Antoine Mazières et Telmo Menezes, « Tubes and Bubbles--Topological confinement of YouTube recommendations », PLOS ONE, vol. 15, no 4,‎ , e0231703 (ISSN 1932-6203, PMID 32315329, PMCID PMC7173795, DOI 10.1371/journal.pone.0231703, lire en ligne, consulté le ).
  35. Bilel Benbouzid, Emma Gauthier, Pedro Ramaciotti, Bertrand Roudier, Tommaso Venturini, « Le cadran de la visibilité de la sphere médiatique et politique sur YouTube : Les effets de la recommandation algorithmique et manuelle. », sur HAL, (consulté le )
  36. Fabien Goubet, « YouTube, cette fabrique de «platistes» », Le Temps,‎ (lire en ligne, consulté le ).
  37. in Rapport sur l'éthique du journalisme ; Projet de recommandation adopté à l'unanimité par la commission le 8 juin 1993 ; commission de la culture et de l'éducation ; parlement européen.
  38. « Facebook, faiseur de rois de l’élection américaine ? », Le Monde.fr,‎ (lire en ligne, consulté le ).
  39. (en) Facebook Is Testing This New Feature to Fight ‘Filter Bubbles’.
  40. (en) « Allsides », sur allsides.com.
  41. (en) Jacqueline Conciatore Senter, Navigating Filter Bubbles, Cavendish Square Publishing, LLC, , 64 p. (ISBN 978-1-5026-4131-1, lire en ligne), p. 37.
  42. (en-US) « Hi From the Other Side ».
  43. « Le concept », Le Drenche / Ouest-France, (consulté le ).
  44. André Gunthert (2016) Et si on arrêtait avec les bulles de filtre?, 13 novembre.
  45. « The truth behind filter bubbles: bursting some myths », sur www.slideshare.net, (consulté le )
  46. Joëlle Farchy et Steven Tallec, « De l’information aux industries culturelles, l’hypothèse chahutée de la bulle de filtre », Questions de communication, no 43,‎ , p. 241–268 (ISSN 1633-5961, DOI 10.4000/questionsdecommunication.31474, lire en ligne, consulté le )
  47. Axel Bruns, « Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem », dans Hate Speech and Polarization in Participatory Society, Routledge, (ISBN 978-1-003-10989-1, DOI 10.4324/9781003109891-4/echo-chambers-filter-bubbles-misleading-metaphors-obscure-real-problem-axel-bruns, lire en ligne)

Bibliographie

[modifier | modifier le code]
  • Boyadjian, J., Olivesi, A., & Velcin, J. (2017). Le web politique au prisme de la science des données. Réseaux, (4), 9-31.

Bibliographie soutenant la théorie d'Eli Pariser

[modifier | modifier le code]

Bibliographie critique

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]