Les algorithmes dans les médias sociaux

Anne-Sophie CasteeleArticle rédigé par Anne-Sophie Casteele, dans le cadre du Master en éducation aux médias (Cours d’Enjeux culturels contemporains des médias et de l’éducation aux médias), janvier 2017.

Plan de l’article

  • Introduction
  • Délimitation du sujet
    • Les algorithmes et les big data
    • L’intelligence artificielle et l’intelligence collective
  • Analyse des impacts des algorithmes
    • Hiérarchisation des informations et arguments d’autorité
    • Cloisonnement dans une communauté homogène
    • Intelligence collective et responsabilité
    • Intelligence personnelle et pensée critique
  • Partie pédagogique
    • Dispositif
    • Structure du parcours
    • En conclusion
  • Retour réflexif
  • Bibliographie

Introduction

Nous vivons dans une époque où les médias sociaux bercent notre quotidien. Les algorithmes produits entre autres par le réseau social « Facebook » utilisent nos données personnelles, les big data, afin de les classer pour ensuite prédire ce qui pourrait nous intéresser à l’avenir et nous proposer des informations centrées sur nos intérêts. Cette thématique engendre plusieurs problématiques qui aujourd’hui semblent essentielles à traiter.

Dans cet article, je compte avant tout parler de Facebook, car c’est le média social le plus utilisé dans le monde avec 1,79 milliard d’utilisateurs actifs par mois en décembre 2016. En Belgique Facebook compte 5,9 millions d’utilisateurs, ce qui représente plus de 50% de la population belge, qui le consulte chaque jour voire plusieurs fois par jour. Dès lors que son utilisation est importante, il est intéressant de comprendre concrètement quelles conséquences cela peut avoir sur la structure même du réseau et sur nos usages.

Dans un premier temps, j’aborderai la question de l’influence des algorithmes du réseau social dans la visibilité des informations qui nous sont proposées. Dans un second temps, je mettrai en évidence la problématique du cloisonnement des usagers dans un réseau social homogène. Dans un troisième temps j’évoquerai la responsabilité de nos usages sur le réseau dans l’intelligence collective. Je traiterai finalement de l’intelligence personnelle et de la pensée critique qu’elle sous-tend.

Le corpus de mon analyse se composera de l’interview de Pierre Lévy dans la vidéo Intelligence collective et algorithmes (Interview de Pierre Lévy par Claude Tran, Educavox, le 24/06/2015) ainsi que son livre intitulé L’intelligence collective, pour une anthropologie du cyberspace.

La conférence organisée autour du livre de Dominique Cardon, sociologue, A quoi rêvent les algorithmes, Nos vies à l’heure des big data (Conférence organisée par Clic et Déclic, Trialogue autour du numérique, à Bruxelles, le 30/11/2016) et le livre en lui-même, sont également des ressources qui m’ont aidée dans mon analyse.

Délimitations du sujet

Dans cette première partie, je vais énoncer les quelques définitions nécessaires à la compréhension du phénomène social que représentent les algorithmes dans les médias sociaux. Ces définitions viennent par paires.

Les algorithmes et les big data

D’après la définition du Larousse, un algorithme est « un ensemble d’opérations et de règles opératoires qui, lorsqu’il s’applique, permet de résoudre un problème énoncé par l’utilisation d’un certain nombre d’opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur ». En clair, un algorithme est un processus de règles de calcul permettant de résoudre des séries de calculs complexes.

Sur le Web, des milliards de données sont générées par jour. 5 milliards de gigabits d’informations numériques sont générées en l’espace de deux jours (CARDON, D., 2015, p. 11).

127996_couverture_Hres_0[1]

Ces données on les nomme aujourd’hui les big data. Ce terme signifie des mégadonnées, autrement dit, il désigne des ensembles massifs de données, très volumineuses. Ces données colossales proviennent de multiples sources en ligne : des moteurs de recherches, des réseaux sociaux, des transactions commerciales, des données médicales et scientifiques, des messages envoyés, des vidéos publiées, etc. Google et Facebook font partie des premières organisations à avoir développé une technologie capable de gérer, de classer et d’analyser ces big data via des algorithmes.

L’intelligence artificielle et l’intelligence collective

On comprend par intelligence artificielle « l’ensemble des théories et des techniques qui permettrait de créer des machines qui simuleraient l’intelligence humaine ». L’intelligence artificielle a pour objectif de reproduire tout ce qu’une activité mentale humaine peut faire, ce qui inclut les domaines de la compréhension, des perceptions ou de la décision.

L’intelligence artificielle est à différencier de l’intelligence collective (LEVY, P., 1994, pp. 29-34) qui elle, signifie « une intelligence partout distribuée (1), sans cesse valorisée (2), coordonnée en temps réel (3), qui aboutit à une mobilisation effective des compétences (4) ».

(1) Le savoir fait partie de l’humanité, personne ne sait tout mais tout le monde sait quelque chose.

(2) L’intelligence n’est pas toujours valorisée, elle est parfois ignorée et inutilisée.

(3) La coordination des intelligences via les nouveaux systèmes de communications offre le moyen aux communautés de coordonner leurs interactions dans le même univers virtuel de connaissances.

(4) Il faut pouvoir les repérer et les reconnaître dans leur diversité.

Pierre Lévy, L'intelligence collective

Ce qui veut dire que nos connaissances individuelles qui fondent notre intelligence personnelle permettent de créer dans un même environnement commun une intelligence collective et qu’il faut pour cela développer certaines compétences pour sélectionner les informations, en juger leur pertinence, les critiquer, etc.

Analyse des impacts des algorithmes

Facebook, en plus d’être un média social, est également une source d’information privilégiée par les utilisateurs. En effet, en un seul clic on peut suivre certains médias d’information à travers le bouton S’abonner, on peut par like montrer nos préférences quant aux publications présentes sur le réseau, on peut les partager à notre communauté et on peut aussi faire le choix de ne pas en voir certaines en les masquant. Il est également important de rappeler que nous pouvons nous-même produire de l’information à travers le réseau via notre mur ou dans des groupes.

Ces différents choix possibles représentent des actions, des traces qui sont collectées par les algorithmes de Facebook. Ces derniers vont comparer ces traces avec celles des autres membres de la communauté et tenter d’anticiper les informations qui pourraient nous intéresser dans le futur (techniques prédictives). Ce sont donc eux qui hiérarchisent les informations visibles dans notre fil d’actualité.

Hiérarchisation des informations et argument d’autorité

Les classements d’information numérique sont générés par le médium algorithmique et « comme toute forme en réseau, les informations qui se trouvent au centre attirent l’attention de tous et reçoivent une visibilité imméritée. À force d’être citées par tous, les plus reconnues deviennent aussi les plus populaires et reçoivent en conséquence le plus de clics. L’aristocratique mesure d’autorité s’abîme alors en une vulgaire mesure de popularité » (CARDON, D., 2015, p. 18).

Pour Dominique Cardon, certaines informations sur le réseau social Facebook sont plus visibles que d’autres alors qu’elles ne devraient pas forcément l’être si on les analyse au niveau de la pertinence du contenu. Selon lui, l’argument d’autorité n’est plus respecté et c’est la popularité qui prime dans la hiérarchie de l’information sur le fil d’actualité. Les informations argumentées d’experts ne sont plus nécessairement mises en avant.

Les réseaux sociaux ont inventé de nouvelles manières de participer sur le Web qui sont plus axées sur la conversation, l’instantanéité et qui sont « moins sélectives socialement ». Les usagers de Facebook sont devenus de véritables acteurs du Web et composent un public « plus juvénile, moins diplômé et plus divers socialement et géographiquement ». Les likes Facebook, mesurés via les algorithmes, sont devenus une nouvelle marque d’autorité, alors que ceux-ci ne relèvent en partie que de « significations subjectives de jeux identitaires, d’appréciations contradictoires et d’idiosyncrasies contextuelles qu’un calculateur ne peut en extraire qu’un ordre très imparfait » (CARDON, D., 2015, p. 29).

Dominique Cardon suggère donc une certaine forme de méritocratie dans le classement des informations qui doivent être proposées au public des réseaux sociaux. Son raisonnement soutient l’idée qu’il existe des affirmations plus vraies que d’autres, ce qui constitue une posture opposée au relativisme, selon lequel toutes les idées se valent. Cela rejoint la notion de « vraisemblance » ou de « fiabilité » qui suppose qu’il y a toujours « un sujet ou une collectivité de sujets pensants qui se mettent d’accord pour considérer qu’il existe des choses plus vraies que d’autres » (LECOMTE, J., 2016, p. 15). La question de la vérité implique une activité de sujets qui évaluent les données. Ici, les informations pertinentes viendraient non pas des contenus plébiscités, mais des discours d’experts, de professionnels de l’information.

Dominique Cardon aborde également l’âge, l’origine sociale et le degré d’étude des usagers du réseau, qui auraient une influence concernant la pertinence des informations publiées sur le média. Cela revient à faire référence à une forme de déterminisme social (cf. entre autres Bourdieu), qui met l’accent sur « les aliénations, caractérisées par le contrôle d’un système dominant sur des individus » (LECOMTE, J., 2016, p. 26).

Une autre interprétation que l’on peut donner à sa réflexion est que les informations publiées uniquement fondées sur le pathos et sur ce qui affecte les personnes individuellement ont plus de chance de mettre en avant des préjugés, qui ne permettraient pas de se forger un esprit critique, par la prise de recul. Le paradigme constructiviste en épistémologie est plutôt nuancé face à cette idée, « les représentations initiales ont un impact sur les futurs jugements et peuvent être un frein à l’apprentissage tout comme elles représentent les conditions de celui-ci » (LECOMTE, J., 2016, p. 20).

> [Note de Julien Lecomte] Il se peut que les « préjugés » constituent des freins à l’apprentissage. Toutefois, selon le paradigme constructiviste en épistémologie, il n’est pas possible de faire abstraction du « déjà-là » cognitif avant de s’approprier de nouvelles données. En ce sens, il importe de s’interroger sur les manières de prendre en compte le préjugé afin de le dépasser par le « nouveau savoir ». Dans le raisonnement de D. Cardon, les algorithmes amplifient la tendance des individus à se conforter dans leurs croyances, notamment en renforçant les cloisonnements dans des communautés de pairs (cf. le développement d’Anne-Sophie Casteele ci-dessous).

Cloisonnement dans une communauté homogène

L’apprentissage automatique (Machine Learning) est une nouvelle technique statistique qui s’est ajouté aux algorithmes calculant la popularité, l’autorité ou la réputation. « L’algorithme apprend en comparant un profil à ceux d’autres internautes qui ont effectué la même action que lui ». Par probabilité, l’algorithme soupçonne qu’une personne pourrait faire telle ou telle chose qu’elle n’a pas encore faite, parce que celles qui lui ressemblent l’ont, elles, déjà faite. Autrement dit, « le futur de l’internaute est prédit par le passé de ceux qui lui ressemblent » (CARDON, D., conférence donnée le 30/11/2016 à Bruxelles).

La critique de Dominique Cardon consiste à dire que les algorithmes « enferment les utilisateurs dans une bulle. En choisissant leurs amis, les internautes font des choix affinitaires homogènes. Ils rassemblent des personnes dont les goûts, les centres d’intérêts des internautes et les opinions se ressemblent ». L’information qui touche les utilisateurs est donc personnalisée et il n’y est pas mis en évidence d’autres formes d’information « qui pourraient peut-être les surprendre, les déranger ou contredire leurs a-priori » (CARDON, D., 2015, pp. 32-33).

Les techniques prédictives des algorithmes qui tentent de deviner quels sont les informations qui pourraient nous intéresser et qui sont visibles dans notre fil d’actualité posent problème. En effet, les algorithmes engendrent une certaine uniformisation dans les réseaux et nous enferment dans une bulle informationnelle et relationnelle dirigée vers nos centres d’intérêts. Cela ne permet pas un pluralisme de l’information et d’opinions. Il est cependant important de faire face à différentes sources d’information et à d’autres opinions que les nôtres pour se forger un avis construit.

Le courant du pluralisme avance « qu’il y a différents types de réalités à prendre en compte pour comprendre le monde », qu’une « même réalité peut être perçue par plusieurs approches sans que toutefois celles-ci soient incompatibles » et que pour « obtenir une perception plus complète de la réalité, pour enrichir la connaissance, il convient d’adopter plusieurs points de vue, de combiner les approches et les postulats » (LECOMTE, J., 2016, p. 12). Ce courant est en lien avec le perspectivisme (qui est lui-même en lien avec le constructivisme en épistémologie, qui veut que le sujet connaissant a un rôle actif dans la construction de ses savoirs) qui appuie que « tout savoir repose sur une perspective donnée, un certain point de vue […] Ces points de vue façonnent la manière dont la réalité est perçue : on ne voit pas la même chose selon le lieu à partir duquel on regarde » (LECOMTE, J., 2016, p. 11).

Intelligence collective et responsabilité

Selon Pierre Levy, lorsqu’on agit dans le réseau social Facebook, en faisant un like par exemple, on contribue à transformer la mémoire collective et la structure de connexion de celle-ci. La communication, entre autres, sur les réseaux sociaux est stigmergique. Cela signifie que nous communiquons indirectement (ou directement) entre nous par l’intermédiaire d’un environnement commun et que cette communication transforme cet environnement. Interviewé par Claude Tran en 2015, Pierre Lévy affirme : « les algorithmes sont faits par des personnes, mais les données, c’est nous qui les fournissons. Les utilisateurs ont une responsabilité très importante dans la reconfiguration dynamique de la mémoire collective ».

Par ces phrases, on peut faire un rapprochement avec la position méta ou méta-analytique (cf. LECOMTE, J., 2016, pp. 42-45) que les utilisateurs des médias sociaux peuvent adopter afin d’être conscients de leurs usages et de leur portée sur la mémoire collective. La pensée critique en éducation aux médias est une pensée dite dynamique qui se perçoit dans les actes que l’on pose au quotidien et qui se réactualise toujours (elle n’est donc pas figée). Cette dernière, lorsqu’elle est appliquée, signifie donc que l’on peut toujours prendre du recul et être conscient : de ce qu’on fait, du contexte dans lequel nos choix s’inscrivent et des conséquences que nos actes peuvent avoir sur le reste de notre communauté en réseau. Être responsable de nos actions sur les réseaux sociaux revient à dire que nous sommes des individus libres de faire ce que bon nous semble mais en toute connaissance de cause. D’une certaine façon, Pierre Levy incite à être autonome face aux réseaux et aux algorithmes.

Intelligence personnelle et pensée critique

Pierre Levy, a développé l’idée selon laquelle l’intelligence collective ne peut se développer qu’à la condition d’avoir préalablement développé une intelligence personnelle et une intelligence critique des sources. Dans son entretien avec Claude Tran, il déclare : « plus on est capable individuellement de discriminer, de repérer les informations pertinentes et d’éliminer celles qui ne sont pas fiables, plus les équipes collaboratives auxquelles on participe vont en bénéficier ». Par ces phrases, on peut faire un rapprochement avec l’idée de fonction critique de l’éducation aux médias. Pour Jacques Piette (cité dans LECOMTE, J., 2016, pp. 42-43), l’esprit critique fait référence à une pensée critique qui suppose une autonomie du jugement et donc une réflexivité et une conscience de ce que l’on fait.

Pierre Levy ajoute à cela que « c’est le rôle principal de l’école, de la formation initiale de développer cet esprit critique. Non, pas d’enseigner des informations mais de donner des principes fondamentaux qui permettent aux gens de s’orienter ». Sur ce point, il rejoint également la posture de Jacques Piette. Pour lui, éduquer à l’esprit critique a pour objectif de « s’interroger sur la crédibilité des sources ou la véracité de l’information », mais aussi à « améliorer certains aspects importants du processus de pensée ». Cette pensée critique fait appel à une certaine autonomie de l’usager, qui suppose l’exercice d’une certaine liberté en tant que citoyen actif. Cela pourrait aussi rejoindre la pensée de Hans Jonas (cité dans LECOMTE, J., 2016, p. 27), qui considère le savoir comme étant une nécessité dans la prise de décisions responsables dans nos actes impliquant des conséquences dans un environnement commun, même si lui aborde plus la question de responsabilité à l’échelle de l’humanité toute entière concernant des thématiques ayant des conséquences potentiellement destructrices importantes pour celle-ci, et dont la probabilité d’occurrence n’est pas connue, comme le nucléaire.

Partie pédagogique

L’enjeu principal de créer un dispositif d’éducation aux médias abordant le phénomène des algorithmes dans les médias sociaux est de permettre aux utilisateurs de ces réseaux de comprendre en quoi cela affecte notre quotidien sur le média social en question. En analysant et en déconstruisant celui-ci, ils pourront prendre conscience de leur propre utilisation de ces réseaux et entrevoir des pistes possibles pour diminuer l’impact des algorithmes en posant certains choix et actions. En somme, l’objectif est de donner des clés de compréhension pour retrouver un certain pouvoir d’action et de décision sur ces algorithmes qui tentent de nous définir.

Dispositif

Je destine ce prolongement pédagogique à un public âgé de 18 à 25 ans. Il prendrait la forme d’un module extra-scolaire, dans une université ou haute école en option journalisme / communication, auquel les étudiants pourront participer sur base d’inscription.

Il serait subdivisé en quatre ateliers distincts et se clôturerait par une rencontre avec des intervenants maîtrisant cette thématique.

Afin d’attirer et d’inciter au mieux les étudiants à participer à ce module, des abonnements à divers journaux en ligne pourront éventuellement être offerts. L’activité s’organisera en quatre premiers ateliers de 50 minutes chacun et le dernier en deux fois 50 minutes.

L’objectif général du parcours consiste à prendre du recul sur nos usages sur le réseau social Facebook et reprendre ainsi du pouvoir face aux algorithmes.

La pédagogie d’éducation aux médias mise en place dans le suivant dispositif est « Analyser et déconstruire ». Je considère que c’est une méthode qui permet de faire comprendre que tout média est une construction. De manière générale, je trouve que c’est également un bon moyen pour s’approprier des connaissances théoriques. Les algorithmes se sont insérés dans de nombreux domaines numériques il est donc possible d’adapter ce dispositif à d’autres thématiques, qu’elles soient liées aux médias sociaux ou au web social en général.

Les compétences à développer dans ce module sont les suivantes : développer un regard plus critique en général sur leur utilisation du réseau social Facebook, avoir une meilleure visibilité d’avis contraires et accroître le pluralisme des sources d’information, être conscient que le clic est une action qui risque de modifier leur fil d’actualité et les inciter à poser des choix judicieux pour développer leur esprit critique, reprendre du pouvoir sur les algorithmes en les déjouant.

Structure du parcours

Atelier 1 : Analyse de capture d’écran et notions théoriques

Objectif principal : Aborder des notions théoriques concernant le Web social et aussi des notions philosophiques.

– Partir des réseaux qu’utilisent les participants et parler de leurs usages afin de les mettre en lien avec différentes notions.

– Analyser des captures d’écrans de fils d’actualité Facebook ou mettre en avant d’autres réseaux sociaux que les étudiants utilisent fréquemment.

– Définir des termes et des notions tels que les algorithmes, les big data, l’intelligence personnelle, l’intelligence collective, l’intelligence artificielle, l’esprit critique, la liberté, l’autonomie, etc.

Atelier 2 : Analyser son propre fil d’actualité Facebook

Objectif principal : Faire découvrir que les informations sur leur fil d’actualité proviennent des algorithmes basés sur les traces (big data) qu’ils laissent sur le réseau.

– Essayer de repérer les infos récurrentes qui interviennent sur leur fil d’actualité.

– Identifier les publicités récurrentes, les sites d’informations mis en avant, les annonces du fil d’actualité qui ressortent le plus souvent. Répondre à la question pourquoi recevez-vous ces informations et d’où viennent-elles ?

– Identifier et énumérer les propositions et suggestions que Facebook peut leur faire. (Suggestion d’amis, de pages à aimer etc.)

– Examiner les possibilités d’action sur le réseau (Masquer quelqu’un, se désabonner d’une page. Observer les différents mini-sondages / questionnaires qu’on leur propose (Pourquoi n’aimez-vous pas cela ? Pourquoi ne voulez-vous plus voir cela ?)

Atelier 3 : Exercice pratique

Objectif principal : Faire des choix conscients qui permettent un certain pluralisme des sources d’information et des opinions au sein de leur communauté. Les choix sont déterminés par les individus et non pas par les algorithmes qui ne font que collecter leurs données.

Exercice à réaliser chez soi. Il est demandé aux étudiants d’essayer de liker des contenus différents, cliquer sur d’autres infos, ou liens qui ne les intéressent pas forcément, se désabonner ou retirer les « J’aime » (like) de certains liens, informations, et observer les changements qui peuvent survenir dans le fil d’actualité et dans les publicités qu’ils reçoivent. (Observation à différents niveaux).

Atelier 4 : Évaluation de l’exercice pratique

Objectif principal : Remarquer que ce que font les personnes de notre communauté influencent également les informations qu’ils reçoivent. Les actions individuelles restructurent la dynamique de l’environnement commun, du réseau, et donc par extension de l’intelligence collective.

– Évaluation de ce qui a été fait chez eux, discussion autour de l’exercice et débat entre les élèves sur leurs observations.

– Expliquer en quoi consiste le rôle des algorithmes dans les médias sociaux et dans la hiérarchisation de l’information dans nos fils d’actualité Facebook, dans les publicités ciblées, dans les informations qui nous atteignent.

Atelier 5 : Rencontre avec des intervenants

Objectif principal : Aborder les limites des algorithmes et démontrer que l’on peut les contrôler à travers nos usages à défaut de pouvoir contrôler les algorithmes en tant que tels.

Apporter des solutions via des exemples concrets et faire appel à des intervenants, deux experts qui ne diaboliseront pas les réseaux sociaux mais qui sensibiliseront quant à leur usage.

En conclusion

Loin d’avoir une posture alarmiste et protectionniste par rapport au fonctionnement algorithmique et aux big data sur les réseaux sociaux, ce dispositif a bien pour objectif de faire prendre conscience aux internautes de ce phénomène. Le but est de « penser le risque » comme pourrait le dire Isabelle Stengers et de développer une position méta (méta-analytique) chez les étudiants.

Retour réflexif

En tant que future éducatrice aux médias, il me semble important de conclure ce travail par un retour praxéologique, qui permettrait de distinguer quels seront les fondements, le sens et la signification de ma pratique éducative.

Tout d’abord, je prendrais en compte le paradigme constructiviste que l’on retrouve dans l’apprentissage, qui implique que les étudiants ne sont pas des têtes vides qu’il faut remplir et qu’il faut donc pouvoir baser son approche sur ce qu’ils savent déjà. Par ailleurs, je soutiens aussi la pensée de Geneviève Jacquinot-Delaunay, qui envisage que le rôle principal de l’école n’est plus de pousser les élèves à accumuler beaucoup de connaissances, car celles-ci se trouvent sur le Web. L’objectif du pédagogue serait donc de faire en sorte que les élèves soient capables de trouver l’information au bon endroit. Pour cela, le pédagogue deviendrait alors expert en méthode. Apporter une certaine méthode plus active, qui redonne du sens et qui fait percevoir les enjeux de l’éducation aux médias aujourd’hui pourrait motiver à l’apprentissage.

Comme Albert Jacquard, je pense également qu’il n’y a pas de « douance » particulière chez les élèves et que chacun peut évoluer à son rythme. L’école est assez normative dans le sens où chacun doit atteindre les mêmes exigences, compétences en même temps, mais je ne pense pas que mettre en échec des élèves leur permette d’évoluer. D’ailleurs, une posture que je souhaiterais adopter en tant que future professionnelle du secteur éducatif est la posture existentialiste. Selon moi, un élève ne doit pas être stigmatisé en recevant une étiquette de « bon » ou de « mauvais » élève, car ce genre de discours peut réellement influencer son comportement futur. L’ayant moi-même vécu, je sais que cela peut profondément changer l’attitude face à la matière enseignée. Personne n’est fatalement déterminé une fois pour toutes, tout le monde peut se construire et être libre de devenir l’individu qu’il souhaite être.

Hannah Arendt - Eichmann à Jerusalem

Une autre approche que je trouve fondamentale en éducation aux médias est la question d’exercer son jugement moral (cf. ARENDT, H., citée dans LECOMTE, J., 2016, p. 27). Permettre aux personnes de s’exprimer sur un sujet au lieu d’attendre d’eux une attitude passive par un enseignement purement théorique, qui ne favorise pas toujours la remise en question de ses actes et d’en comprendre leur sens. Le dialogue avec les élèves est pour moi la base d’une position méta. Au lieu d’avoir une position protectionniste vis-à-vis des médias je pense qu’il faut plutôt parler de risque pensé. C’est à dire comprendre et analyser ce à quoi on peut faire face dans certains médias sans les diaboliser pour autant. Faire appel au pluralisme et au perspectivisme en tant qu’éducateur est également très important, il faut pouvoir aborder une thématique selon plusieurs points de vue et plusieurs théories. C’est aussi la raison pour laquelle je pense que la dialectique est nécessaire dans la pratique de l’éducation aux médias.

Bibliographie

Cardon, D., A quoi rêvent les algorithmes : Nos vies à l’heure des Big data, Paris : Seuil, 2015, pp.7-33.

Cardon, D., « A quoi rêvent les Algorithmes : Nos vies à l’heure des big data », Conférence organisée par Clic et Déclic, Trialogue autour du numérique, Bruxelles, le 30/11/2016. Trialogue réalisé avec le sociologue Dominique Cardon et deux modérateurs. Pascal Chabot Jean-Claude Crespy.

Lecomte, J., Cours d’enjeux épistémologiques et éthiques des médias et de l’éducation aux médias, version année 2016 – 2017.

Levy, P., L’intelligence collective. Pour une anthropologie du cyberspace, Paris : Éditions la découverte, 1994.

Levy, P., Le medium algorithmique, s. l., s. d.

Tran, C., Interview de Pierre Lévy. Intelligence collective et algorithmes, Educavox, 24/06/2015.

Verniers, P., Cours d’enjeux politiques et idéologiques des médias et de l’éducation aux médias (syllabus non publié), année 2016-2017.

Pour aller plus loin

Do Not Track (webdoc, 2015).

Lecomte, J., « Sur la réflexivité dans les pratiques d’éducation aux médias et à l’information », 2014.

Lecomte, J., « Médias, culture et cognition : entretien avec le philosophe Pierre Lévy », 2012.

Médias, culture et cognition : entretien avec le philosophe Pierre Lévy