Les infox⚓︎
Warning
Les vidéos tirés de l'épisode 2 du documentaire L'intox, c'est nous
ont été désactivés. Cette activité est à refaire.
Consignes1
- À partir de la page
Doctools
, se connecter à l'aide des codes perso distribués. - Utiliser le code
WyRK
pour accéder au document à compléter en ligne. - Vous pouvez travailler en bînome ou trînomes, renseigner votre partenaire dans l'espace réservé.
Les infox
On parle aussi de fake news ou encore de faits alternatifs. Il s'agit d'un mélange de :
- la mésinformation : information fausse mais ceux qui la partagent ne s'en rendent pas compte
- la désinformation : information fausse mais ceux qui la partagent en sont conscients
- mensonges partiels : faits et documents donnés hors contexte, choix biaisés des données.
Responsabilité des auteurs⚓︎
Exercice 1
15 min
Visualisez la vidéo ci-dessous puis répondre aux questions du document en rayant les réponses fausses.
Responsabilité des internautes⚓︎
Exercice 2
30 min
-
Chaque élève lit le document attribué parmi les 3 donnés (si binôme, lecture commune).
Sur Facebook, l’information est structurellement défavorisée⚓︎
Ensuite, le but étant que les usagers restent sur la plateforme, Facebook s’arrange pour qu’une information soit partagée le plus rapidement possible, à un nombre de personnes le plus élevé possible. Donc tout dépend de la viralité du contenu. Sa viralité peut être naturelle, elle sera alors d’autant plus forte que le message joue sur la réaction et les émotions plutôt que sur la réflexion et la distance : l’humour, l’outrance, l’indignation génèrent davantage de dopamine que le contenu modéré, sérieux, qui est alors désavantagé.
Entretien avec Bruno Patino, Le Un, n° 252, 5 juin 2019
Le cerveau doit apprendre à résister⚓︎
Il existe dans notre cerveau trois systèmes de connexions entre neurones : les heuristiques, des connexions rapides, intuitives, mais aussi approximatives et émotionnelles (c’est le système 1) ; les algorithmes logiques, rationnels et exacts, réfléchis mais plus lents (système 2) ; et un système d’arbitrage (système 3), qui permet d’inhiber les heuristiques du système 1 pour activer la logique du système 2. […]
Ces travers humains sont aussi amplifiés, décuplés, par Homo connecticus sur les réseaux sociaux via les fameuses et délétères fake news, les fausses informations et les rumeurs infondées. Ces dernières ressortent d’une heuristique bien connue, l’heuristique de crédibilité — un biais cognitif qui fait qu’on retient ce qui est crédible ou que l’on a envie de croire — mais pas du tout d’un algorithme logique de validité — c’est-à-dire d’une vérification systématique des informations et des raisonnements. Une telle vérification demande un effort cognitif et du temps. C’est le système 2. Or, le cerveau humain, si complexe soit-il, est paresseux et se borne souvent au système 1 !
Olivier Houdé, Le Un, n° 252, 05 juin 2019
Trop d’infos tue l’info⚓︎
À l’aide de cette modélisation mathématique, l’équipe […] de l’université de l’Indiana confirme de manière statistique que lorsque les personnes sont inondées d’un flux régulier d’informations de bonne et de mauvaise qualité, même les plus critiques commencent à avoir du mal à distinguer les faits de la fiction.
[…]
Cette étude révèle un phénomène que les psychologues connaissent depuis longtemps : trop d’informations entrave la prise de décision : « Le point central de cet article est le suivant : ce que les neuroscientifiques avaient déjà démontré sur le plan biologique a des implications très concrètes et très prosaïques dans notre quotidien », explique Daniel Levitin […].
Eoin O’Carroll, The Christian Science Monitor, 27 juin 2017 (traduit par Courrier International hors-série n° 63)
-
En reformulant l'argument du document attribué explique un mécanisme qui fait que des individus, même intelligents et éduqués, croient et propagent de fausses informations sur internet.
- Visualisez la vidéo, puis faire une mise en commun du groupe. Illustrez avec des citations.
Responsabilité des plateformes⚓︎
Exercice 3
30 min
-
Lire les documents suivants :
Extrait d’une intervention de Benjamin Bayart⚓︎
Mentir pour manipuler l’opinion, c’est quelque chose de relativement courant. Ça, c’est de la responsabilité du menteur. En revanche, ce que fait Facebook, c’est hiérarchiser l’information, et mettre en avant certaines informations plus que d’autres. Et en particulier, pour reprendre le terme qui a été donné, c’est mettre en avant les articles les plus
pute-à-clic
parce que ce sont ceux qui entraînent le plus d’engagement, c’est-à-dire qui vous énervent parce qu’ils disent des choses fausses, ou qui vous énervent parce qu’ils disent des choses extrêmement outrageantes, et ça, ça provoque de l’engagement, et pour la consommation publicitaire, c’est très bon. Donc les mécanismes de classement mettent ça en avant de manière très spontanée. Et ça, ça c’est pas la responsabilité du menteur qui a menti au départ, c’est la responsabilité de Facebook, qui fait le classement.débat dans l’émission « La méthode scientifique », France Culture, 22 février 2019
Alerte aux fake news !⚓︎
Le web 2.0, imaginé comme une vaste agora collaborative, a produit in fine de l’entre-soi. Nous échangeons au sein de
bulles
grâce à une personnalisation mise en place à notre insu. C’est l’œuvre des algorithmes. Guillaume Chaslot, fondateur d’AlgoTransparency et ex-salarié de YouTube, a révélé le pot aux roses sur le système de recommandations des vidéos du mastodonte.Je me suis rendu compte que les algorithmes qu’on produisait enfermaient les utilisateurs dans des "bulles filtrantes"
, a-t-il raconté. Il avait proposé de donner plus de contrôle à l’utilisateurafin qu’il ne se fasse pas entraîner de manière passive dans des groupes de vidéos juteuses pour YouTube, comme celles des théories du complot
. Aucun responsable de la firme n’a poussé le projet. Et pour cause : ces correctifs risquaient de réduire le temps de visionnage, un sérieux manque à gagner. Conclusion de Chaslot :Le cœur du problème, ce ne sont pas les fake news, mais le fait que celles-ci soient recommandées automatiquement. Si les gens voyaient à quel point l’algorithme amplifie les théories racistes ou fascistes, qui font le plus réagir et maximisent le temps de vue, ils inciteraient YouTube et Facebook à agir.
Marie Guichoux, L’Obs n° 2827, 10 janvier 2019
-
Visualiser la vidéo.
-
Faire une mise en commun pour répondre à la question suivante sous la forme d'un paragraphe argumenté.
Les plates-formes commerciales de partage de contenu (Facebook, Youtube, etc.) favorisent-elles la propagation des fake news ?
Vous reformulez les arguments des documents, avant de les illustrer avec des citations.
Le paragraphe argumenté
Un paragrahe argumenté est composé des quatre étapes suivantes, en une dizaine de lignes environ.
- Annonce de l'idée de l'argument (prendre position).
- Explication (préciser, expliquer la position prise) :
En effet…
. - Illustration (citer les documents) :
Ainsi…
. - Conclusion (énoncer à nouveau la position prise) :
Donc…
.
Références⚓︎
-
séance conçue par François Paoli et Louis Paternault ↩