samedi 29 octobre 2022

Shaping the future of cyber operations: lessons learned from Ukraine

 

In his 2013 book, “Cyber War Will Not Take Place” Thomas Rid argues, “cyber-operations in wartime are not as useful as bombs and missiles when it comes to inflicting the maximum amount of physical and psychological damage on the enemy.”

From day one of the Russian offensive, cyber experts and advocates have been looking for the « cyber » smoking gun in Ukraine. Russia is unarguably a “first class” country in cyberspace and probably one of the few countries skillful enough to launch destructive cyber-attacks to achieve its strategic goals in support of kinetic operations. Thus, as the crisis escalated before 24 February 2022, fear of a « cyber shock and awe » grew. However, so far, the Russo-Ukrainian war reminds us that war is still "flesh and steel" . Mud and geography still impose their rules, and logistics are critical to both sides. Does it mean that cyber operations are ineffective, too weak, and unable to produce any strategic value

 


 

To answer this, one must first explore how Russia is shifting from the use of cyber operations in hybrid conflict to wartime. This is worth a look as Russia has a strong military background in information operations (IO) and electronic warfare (EW). Understanding how to integrate cyber operations into a large scale, mainly air-land, campaign can inform our own processes.  It must also contribute to shape our own military model especially when the French Strategic Vision is highlighting the need to « win the war before the war » and emphasizing the critical role of information dominance. On the other side the way Ukraine, with no military command dedicated to cyberspace, is fighting in the “fifth domain” is equally instructive to understand the very changing nature of cyberwarfare.

As western armed forces are building up their Cyberforce and developing Multi dimensional Warfare doctrine, the war in Ukraine is a wakeup call to speed up the process. Russia failed to integrate cyber offensive capacities in its shift from low to high intensity. This shift is not only a matter of force structure, logistic and fire power; it may broadly have an impact on how the entire chain of command integrates new fighting domains. What Russo-Ukrainian war tells us about the nature of cyberwarfare is that shifting from a covert proxy war to a high intensity campaign requires specific capabilities, human resources, and task organization.

 

lundi 18 avril 2022

La mécanique de la désinformation en ligne



 Faire du tri a de nombreuses vertus, comme celle de retrouver des magazines et de s'y replonger. Cette semaine c'est le N°523 de "Pour la Science" (Mai 2021) qui est remonté à la surface. A la faveur de l'actualité, se tourner vers la recherche scientifique pour mieux comprendre les mécanismes de la désinformation ne peut être que salutaire.

L'intelligence artificielle, l'arme de la désinformation ?   

Laurence Devillers, professeur d'intelligence artificielle à Sorbonne Université et chercheuse au LISN (laboratoire interdisciplinaire des sciences du numérique) du CNRS expose dans son article l'importance des outils logiciels dans les mécanismes de désinformation, tant pour les entretenir que pour les réduire.

La désinformation sur internet consiste en la diffusion massive et délibérée d'informations via les réseaux sociaux dans le but de tromper ou de manipuler. Avec sa cousine la mésinformation (propagation d'informations non vérifiées, incomplètes ou incertaines), elles se répandent d'autant plus facilement qu'elles exploitent des biais cognitifs connus. L'enjeu pour l'IA dans ce contexte est d'une part de vérifier la crédibilité d'une information et d'autre part caractériser "l'intentionnalité" (volonté de nuire, manipuler..). Il faut donc détecter les faux profils et les bots mais également comprendre leur rôle dans la diffusion de l'information (objet de l'article de Filippo Menczer et Thomas Hills, nous y reviendrons).

La viralité (diffusion massive et rapide) tient en partie à la capacité d'attention réduite des internautes mais également en l'exploitation des biais cognitifs. Les études sur "l'économie comportementale" lancée depuis les années 70 ont documenté plusieurs de ces biais que l'on peut généralement classer en quatre catégories:


 

- les biais qui découlent d'un "trop plein d'information"; 

- les biais liés à un manque de sens que l'individu cherche à combler;

- Les biais liés au besoin d'agir vite (vous savez le nudge des site de réservation... celui avec le petit chronomètre et une indication du style "il ne reste plus que X place et Y internautes regardent la même annonce)

- Les biais induits par les limitations de la mémoire.

Dès lors, les outils de manipulation numériques vont s'appuyer sur des "nudge", terme inventé par Richard Thaler et Cass Sunstein (2008). Le nudge (léger coup de pouce) est une tactique dite d'influence "douce". L'illustration la plus parlante (pour les garçons) est l'autocollant "fausse mouche" au centre des urinoirs qui incitent les utilisateurs à "viser juste" (et ça marche...).


Exemple de nudge : l'image de la mouche incite à "viser" celle-ci.

Oui, très bien me direz-vous, on exploite les biais cognitifs, mais où est l'IA là dedans ? L'utilisation de nudge par les chtabots (robots conversationnels) représente un danger manifeste et une opportunité pour la désinformation. En identifiant les biais à exploiter chez leurs interlocuteurs humains (biais de conformisme, d'ancrage ou d'autorité) les bots pourraient être exploités pour influencer "en douceur" leurs interlocuteurs. Le projet "Bad Nudge-Bad Robot" du CNRS vise par exemple à identifier et mettre en évidence les danger de ces techniques pour les enfants. Dans ce contexte, comme le rappelle l'auteure, L'IA fournit des armes diverses, les unes permettant de traquer les propos haineux (tiens, faudra creuser ce point également) et repérer les trolls et le bots, les autres de propager des fausses informations et de manipuler les internautes.

Réseaux sociaux et réseaux de neurones, le mariage de la carpe et du lapin

L'étude de la propagation des informations sur les réseaux sociaux est un domaine transverse qui mobilise de nombreuses compétences,  Filippo Menczer et Thomas Hills et leurs équipes de l'université de Warwick et l'OSoME (l'Observatoire des médias sociaux de l'université de l'Indiana) nous plongent dans l'économie de l'attention et ses conséquences. Depuis les travaux d'Herbert Simon on sait que " ce que l'information consomme c'est l'attention des receveurs" dès lors, "une abondance de l'information crée une rareté de l'attention". Prix Nobel en 1978, Herbert Simon ne pouvait qu'entrevoir le tsunami informationnel que la révolution numérique allait générer, son propos n'en ait que plus pertinent. Aujourd'hui l'information permanente entraine un déficit de l'attention et probablement une dégradation des capacités cognitives chez l'homme (mais ça c'est une autre sujet). Ce que Menczer et Hills mettent en lumière est plus cruel encore. A mesure que l'attention des agents diminue, la propagation des publications suit une loi de puissance. Cela signifie (pour faire court) qu'un petit nombre de publications est largement diffusé tandis que la plupart sont à peine vues...(et ce quelque soit la "valeur propre" du contenu).


Ces résultats croisés avec la constatation que les moteurs de recherche, les plateformes et les réseaux sociaux fonctionnent avec des algorithmes qui exploitent le biais de confirmation impliquent naturellement que nous soyons statistiquement surexposés à des informations susceptibles de nous plaire (indépendamment de leurs qualités, voir "bublle filter, la tactique de l'isolement" ). 

Les auteurs ont ainsi démontré en 2020 en étudiant les élections aux États-Unis, que la vulnérabilité à la désinformation se retrouve autant chez les conservateurs que chez les libéraux et que les réseaux sociaux accentuaient largement le phénomène de polarisation. La logique de "communauté" qui sous-tend leur développement favorise encore plus cette polarisation car "les groupes sociaux créent une pression en faveur de la conformité si forte qu'elle peut se supplanter aux préférences individuelles." Ainsi, l'expérience démontre "qu'en amplifiant des différences initiales aléatoires, ce biais de conformité peut faire radicalement diverger des choix de différents groupes" (voir également les travaux de Bjarke Monsted de l'université du Danemark et de Californie du Sud). 

Enfin, un dernier biais a une importance croissante dans la constitution d'une opinion en ligne, "l'effet de simple exposition" (Robert Zajonk, 1969).  Là encore et pour couper dans les virages, nous sommes plus sensibles à des messages qui nous sont familiers et donc s'ils nous sont soumis de façon récurrente ce qui entraine un intérêt majeur pour les contenus "populaires" et favorise donc leur viralité. Les études ont donc démontré que les informations poussées (ou mises en avant sur les RS) proviennent en réalité d'un nombre très faible de sources particulièrement populaires.

Pour lutter contre la désinformation, il faut sortir de la "chambre d'écho"

L'exploitation des biais cognitifs par les algorithmes des RS favorise l'apparition de ce que l'on appelle des "chambres d'écho". Les utilisateurs et leurs relations se retrouvent dans des "sphères informationnelles" de plus en plus hermétiques aux idées divergentes et contradictoires et les liens intracommunautaires ont tendance à se renforcer. 

En matière de lutte contre la désinformation cela présente un inconvénient majeur : "les informations fausses se trouvent dissociées de leurs démentis et circulent dans des chambres d'écho différentes". En outre les réseaux sociaux favorisent "le mécanisme d'amplification du risque social" qui fait que l'on favorise la diffusion d'informations négatives. Le poids de l'émotion sur les RS fait peser un risque de polarisation qui peut être amplifié par les robots. Ces derniers peuvent contribuer à dégrader la qualité de l'information diffusée, Ils accélèrent la formation de chambre d'écho en incitant à suivre d'autres comptes automatisés (technique du "follow-trains").

Pour lutter contre ces phénomènes il faut d'abord les comprendre et les identifier et plusieurs outils sont proposés dans l'article dont une simulation de chambre d'écho (https://osome.iu.edu/demos/echo/)

Simulation de création de chambre d'écho : https://osome.iu.edu/demos/echo/

Un jeu pour apprendre à repérer les fausses informations: https://fakey.osome.iu.edu/

Un outils pour mesurer la propagation sur Twitter: https://hoaxy.osome.iu.edu/

et enfin BotSlayer pour détecter les campagnes de désinformation : https://osome.iu.edu/tools/botslayer

Outre l'éducation et la sensibilisation, les auteurs concluent sur une idée que je trouve intéressante à creuser: pour lutter contre la désinformation il faudrait rendre la création et le partage de l'information plus difficile. Cela nous ramène à la cause profonde du phénomène: la numérisation a abaissé (voire fait disparaitre) le coût d'entrée à des technologies et des fonctions qui il y a peu étaient réservées soit à l'état soit à des groupes sociaux reconnus. Le mouvement peut-il être maintenant contrôlé ? et de conclure:

"L'information prétendue gratuite ne l'est jamais réellement. En diminuant son coût nous avons diminué sa valeur et ouvert la porte à la falsification. Pour restaurer la santé de notre écosystème de l'information, nous devons restaurer une économie de l'information saine, qui nous protège des manipulations."