Faire du tri a de nombreuses vertus, comme celle de retrouver des magazines et de s'y replonger. Cette semaine c'est le N°523 de "Pour la Science" (Mai 2021) qui est remonté à la surface. A la faveur de l'actualité, se tourner vers la recherche scientifique pour mieux comprendre les mécanismes de la désinformation ne peut être que salutaire.
L'intelligence artificielle, l'arme de la désinformation ? Laurence Devillers, professeur d'intelligence artificielle à Sorbonne Université et chercheuse au LISN (laboratoire interdisciplinaire des sciences du numérique) du CNRS expose dans son article l'importance des outils logiciels dans les mécanismes de désinformation, tant pour les entretenir que pour les réduire.
La désinformation sur internet consiste en la diffusion massive et délibérée d'informations via les réseaux sociaux dans le but de tromper ou de manipuler. Avec sa cousine la mésinformation (propagation d'informations non vérifiées, incomplètes ou incertaines), elles se répandent d'autant plus facilement qu'elles exploitent des biais cognitifs connus. L'enjeu pour l'IA dans ce contexte est d'une part de vérifier la crédibilité d'une information et d'autre part caractériser "l'intentionnalité" (volonté de nuire, manipuler..). Il faut donc détecter les faux profils et les bots mais également comprendre leur rôle dans la diffusion de l'information (objet de l'article de Filippo Menczer et Thomas Hills, nous y reviendrons).
La viralité (diffusion massive et rapide) tient en partie à la capacité d'attention réduite des internautes mais également en l'exploitation des biais cognitifs. Les études sur "l'économie comportementale" lancée depuis les années 70 ont documenté plusieurs de ces biais que l'on peut généralement classer en quatre catégories:
- les biais qui découlent d'un "trop plein d'information";
- les biais liés à un manque de sens que l'individu cherche à combler;
- Les biais liés au besoin d'agir vite (vous savez le nudge des site de réservation... celui avec le petit chronomètre et une indication du style "il ne reste plus que X place et Y internautes regardent la même annonce)
- Les biais induits par les limitations de la mémoire.
Dès lors, les outils de manipulation numériques vont s'appuyer sur des "nudge", terme inventé par Richard Thaler et Cass Sunstein (2008). Le nudge (léger coup de pouce) est une tactique dite d'influence "douce". L'illustration la plus parlante (pour les garçons) est l'autocollant "fausse mouche" au centre des urinoirs qui incitent les utilisateurs à "viser juste" (et ça marche...).
|
Exemple de nudge : l'image de la mouche incite à "viser" celle-ci.
|
Oui, très bien me direz-vous, on exploite les biais cognitifs, mais où est l'IA là dedans ? L'utilisation de nudge par les chtabots (robots conversationnels) représente un danger manifeste et une opportunité pour la désinformation. En identifiant les biais à exploiter chez leurs interlocuteurs humains (biais de conformisme, d'ancrage ou d'autorité) les bots pourraient être exploités pour influencer "en douceur" leurs interlocuteurs. Le projet "Bad Nudge-Bad Robot" du CNRS vise par exemple à identifier et mettre en évidence les danger de ces techniques pour les enfants. Dans ce contexte, comme le rappelle l'auteure, L'IA fournit des armes diverses, les unes permettant de traquer les propos haineux (tiens, faudra creuser ce point également) et repérer les trolls et le bots, les autres de propager des fausses informations et de manipuler les internautes.
Réseaux sociaux et réseaux de neurones, le mariage de la carpe et du lapin
L'étude de la propagation des informations sur les réseaux sociaux est un domaine transverse qui mobilise de nombreuses compétences, Filippo Menczer et Thomas Hills et leurs équipes de l'université de Warwick et l'OSoME (l'Observatoire des médias sociaux de l'université de l'Indiana) nous plongent dans l'économie de l'attention et ses conséquences. Depuis les travaux d'Herbert Simon on sait que " ce que l'information consomme c'est l'attention des receveurs" dès lors, "une abondance de l'information crée une rareté de l'attention". Prix Nobel en 1978, Herbert Simon ne pouvait qu'entrevoir le tsunami informationnel que la révolution numérique allait générer, son propos n'en ait que plus pertinent. Aujourd'hui l'information permanente entraine un déficit de l'attention et probablement une dégradation des capacités cognitives chez l'homme (mais ça c'est une autre sujet). Ce que Menczer et Hills mettent en lumière est plus cruel encore. A mesure que l'attention des agents diminue, la propagation des publications suit une loi de puissance. Cela signifie (pour faire court) qu'un petit nombre de publications est largement diffusé tandis que la plupart sont à peine vues...(et ce quelque soit la "valeur propre" du contenu).
Ces résultats croisés avec la constatation que les moteurs de recherche, les plateformes et les réseaux sociaux fonctionnent avec des algorithmes qui exploitent le biais de confirmation impliquent naturellement que nous soyons statistiquement surexposés à des informations susceptibles de nous plaire (indépendamment de leurs qualités, voir "bublle filter, la tactique de l'isolement" ).
Les auteurs ont ainsi démontré en 2020 en étudiant les élections aux États-Unis, que la vulnérabilité à la désinformation se retrouve autant chez les conservateurs que chez les libéraux et que les réseaux sociaux accentuaient largement le phénomène de polarisation. La logique de "communauté" qui sous-tend leur développement favorise encore plus cette polarisation car "les groupes sociaux créent une pression en faveur de la conformité si forte qu'elle peut se supplanter aux préférences individuelles." Ainsi, l'expérience démontre "qu'en amplifiant des différences initiales aléatoires, ce biais de conformité peut faire radicalement diverger des choix de différents groupes" (voir également les travaux de Bjarke Monsted de l'université du Danemark et de Californie du Sud).
Enfin, un dernier biais a une importance croissante dans la constitution d'une opinion en ligne, "l'effet de simple exposition" (Robert Zajonk, 1969). Là encore et pour couper dans les virages, nous sommes plus sensibles à des messages qui nous sont familiers et donc s'ils nous sont soumis de façon récurrente ce qui entraine un intérêt majeur pour les contenus "populaires" et favorise donc leur viralité. Les études ont donc démontré que les informations poussées (ou mises en avant sur les RS) proviennent en réalité d'un nombre très faible de sources particulièrement populaires.
Pour lutter contre la désinformation, il faut sortir de la "chambre d'écho"
L'exploitation des biais cognitifs par les algorithmes des RS favorise l'apparition de ce que l'on appelle des "chambres d'écho". Les utilisateurs et leurs relations se retrouvent dans des "sphères informationnelles" de plus en plus hermétiques aux idées divergentes et contradictoires et les liens intracommunautaires ont tendance à se renforcer.
En matière de lutte contre la désinformation cela présente un inconvénient majeur : "les informations fausses se trouvent dissociées de leurs démentis et circulent dans des chambres d'écho différentes". En outre les réseaux sociaux favorisent "le mécanisme d'amplification du risque social" qui fait que l'on favorise la diffusion d'informations négatives. Le poids de l'émotion sur les RS fait peser un risque de polarisation qui peut être amplifié par les robots. Ces derniers peuvent contribuer à dégrader la qualité de l'information diffusée, Ils accélèrent la formation de chambre d'écho en incitant à suivre d'autres comptes automatisés (technique du "follow-trains").
Pour lutter contre ces phénomènes il faut d'abord les comprendre et les identifier et plusieurs outils sont proposés dans l'article dont une simulation de chambre d'écho (https://osome.iu.edu/demos/echo/)
|
Simulation de création de chambre d'écho : https://osome.iu.edu/demos/echo/ |
|
Un jeu pour apprendre à repérer les fausses informations: https://fakey.osome.iu.edu/
Un outils pour mesurer la propagation sur Twitter: https://hoaxy.osome.iu.edu/
et enfin BotSlayer pour détecter les campagnes de désinformation : https://osome.iu.edu/tools/botslayer
Outre l'éducation et la sensibilisation, les auteurs concluent sur une idée que je trouve intéressante à creuser: pour lutter contre la désinformation il faudrait rendre la création et le partage de l'information plus difficile. Cela nous ramène à la cause profonde du phénomène: la numérisation a abaissé (voire fait disparaitre) le coût d'entrée à des technologies et des fonctions qui il y a peu étaient réservées soit à l'état soit à des groupes sociaux reconnus. Le mouvement peut-il être maintenant contrôlé ? et de conclure:
"L'information prétendue gratuite ne l'est jamais réellement. En diminuant son coût nous avons diminué sa valeur et ouvert la porte à la falsification. Pour restaurer la santé de notre écosystème de l'information, nous devons restaurer une économie de l'information saine, qui nous protège des manipulations."