samedi 18 novembre 2017

Les bots : outils de la guerre silencieuse sur le net

Les bots ont acquis en quelques années une position singulière dans l'écosystème numérique en étant supposément responsables de plus de 50% du trafic Internet. Si les "robots conversationnels" ne sont pas une nouveauté au sens strict, leur capacité d'apprentissage et l'accès à des banques de données en forte croissance ont largement contribué à leur évolution et à l'augmentation de leurs périmètre d'emploi.


  • Petit voyage chez nos amis les robots


Un bot est avant tout un programme informatique qui a pour but d'effectuer des tâches répétitives ou de simuler le comportement d'une personne. Ainsi, la première application des bots voit-elle le jour pour indexer les pages WEB (googlebot) puis ultérieurement dans la relation client et dans les services de réponses aux questions habituelles. Nul besoin d'interagir avec un agent humain si la question est connue et régulièrement posée, il suffit de programmer un agent pour reconnaître les mots clefs d'une requête et y associer la réponse adéquate.

Les "bots" peuvent ainsi collecter des informations sur le WEB (ce sont les crawlers qui patrouillent sur le WEB et collectent les informations pour lesquelles ils ont été programmés). D'autres peuvent "exécuter des actions" ou créer du contenu. Ces bots sont alors utilisés pour la modération de contenus ou l'édition de messages spécifiques. Enfin, la dernière génération de bots est utilisée pour simuler un comportement humain. Cette typologie de bots peut naturellement être contestée mais elle permet d'envisager deux types de comportements associés. Le diagramme ci-dessous présente ainsi, par type de bots, une distinction entre "le bon robot" et le "mauvais robot"...


  • Les bots en guerre commerciale
Sur Internet, les groupes de grande distribution se livrent une concurrence redoutable, la "guerre des prix" fait rage. Outre la diversification des services, pour ne pas succomber à la concurrence, il convient de pratiquer une politique de prix les plus bas possibles. Mais comment être certain "d'être le moins cher"? la réponse est simple, il suffit de s'armer de robots qui, en permanence, relèvent les prix pratiqués par les autres acteurs de "l'e-commerce". 

Selon l’agence Reuters, le géant du e-commerce Amazon aurait installé une technologie lui permettant de bloquer les différents robots développés par son concurrent Walmart.
Ces “bots” sont utilisés par la firme de l’Arkansas pour parcourir la marketplace et ainsi obtenir les prix pratiqués par son concurrent.
Pourtant, Scott Jacobson, ancien responsable d’Amazon et désormais directeur général  de Madrona Venture Group a expliqué à l’agence Reuters : « Amazon a la capacité de détecter la présence de robots, mais aussi les ressources pour réagir. Ce n’est pas le cas pour la plupart des retailers. »
Dans un milieu toujours plus concurrentiel, Amazon déstabilise ses adversaires. Restreindre l’accès à sa place de marché est une problématique de taille pour Walmart qui durant toute cette période n’a pas pu accéder aux prix de son concurrent. Or une différence de prix, même minime, entre deux marchands peut entraîner des conséquences sur les ventes.
  • Les "bots" en politique :  If bots can spread lies about your rivals, why not unleash them?
L'importance acquise par les réseaux sociaux dans la formation des opinions publiques que ce soit en matière de marketing ou de politique entraîne le développement d'une stratégie "digitale" numérique chez les principaux acteurs en compétition. Ainsi, les séquences électorales US en 2016 puis française en 2017 ont-elles pu mettre en lumière les premiers "bots politiques" en soutien des candidats.
Pour compenser un manque de visibilité dans les médias traditionnels (réel ou supposé), plusieurs politiques ont favorisé la création de robots programmés pour retweeter des messages, surveiller des hashtags particuliers ou encore mentionner des personnes (le but étant de donner de la visibilité artificiellement, c'est de l'astroturfing politique). Pour éviter la détection par les plateformes, ces comptes sont dits "hybrides", ainsi, régulièrement, un opérateur humain va-t-il reprendre la main sur l'animation du compte et lui donner un semblant de "comportement normal". Cette pratique est tout à fait en phase avec une pratique militante 2.0, les générations numériques étant plus enclines à l'animation d'avatars qu'au tractage sur les marchés ou à l'affichage de nuit...

Pour quels résultats ? Il est délicat de mesurer l'impact de ces pratiques, toutefois, une information retweetée en masse à tendance à être perçue comme plus crédible surtout si, à terme, elle est relayée par un "influenceur" qui dispose d'une réelle notoriété. Ces stratégies permettent de voir émerger des polémiques qui orientent alors le débat politique et peuvent déconstruire une cohérence dans l'argumentaire adversaire. Si de nombreuses limites existent, il est clair que la guerre des robots n'en est qu'à ces prémices. En dépit des dérives observées (manipulation, désinformation grossière) il est peu probable que le phénomène disparaisse tant les enjeux commerciaux sous-jacents sont importants. Les robots ont sans conteste un bel avenir.

  • Les bots dans la "guerre des contenus"
Si vous n'êtes pas un habitué de l'édition sur Wikipédia, vous serez certainement surpris d'apprendre que la plateforme utilise de nombreux bots pour publier des contenus, les vérifier et "censurer". 
Une étude de l'Université d'Oxford: Even good bots fight: The case of Wikipedia présente ainsi un cas particulier de "guerre des bots". Des bots censés corriger les erreurs des humains dans Wikipédia, corrigeaient aussi les modifications d'autres machines, lançant des guerres d'édition qui ont duré des années. Pourquoi donc ? 
Car le contenu d'une page Wikipédia représente un enjeu commercial ou politique sensible, ce qui y est écrit à valeur de vérité et peut donc nuire ou servir un homme ou une cause.
Selon cette étude, les bots représentent moins de 0,1% des contributeurs de Wikipedia, et sont  responsables de 15% des modifications effectuées sur des pages de l'encyclopédie (toutes langues confondues) en 2014.


Des bots plus lents que les humains...
les conflits entre deux bots, qui annulent chacun leur tour les modifications de l'autre, peuvent durer des années. Car contrairement aux humains, qui laissent souvent passer moins de 24 heures entre deux retours en arrière, les bots mettent en moyenne un mois à réagir (en raison de la manière dont ils sont paramétrés).

... mais tout aussi imprévisibles et inefficaces
En raison d'un changement technique survenu en 2013 dans les liens entre les différentes versions linguistiques d'une même page, dont provenaient la plupart des conflits entre bots, les chercheurs estiment que le problème a disparu aujourd'hui.

Pour créer votre propre bot sur Wikipédia, voir la page dédiée: Créer un bot

Cet article n'a fait l'objet d'aucune contribution de bot.

Aucun commentaire:

Enregistrer un commentaire