Coup de blues pour les ardents partisans de l’IA comme solution miracle. La pandémie a eu de nombreux impacts sur les entreprises : baisse d’activité, mise en place plus ou moins dans l’urgence du télétravail, difficultés à gérer ses stocks…
Mais elle a aussi brouillé les modèles prédictifs à base de Machine Learning (déclinaison de l’IA) de plus en plus utilisés pour anticiper les comportements des consommateurs. Avant le début de la pandémie, les achats les plus courants sur des sites d’e-commerce « généralistes » comme Amazon étaient les étuis et les chargeurs de téléphone, les écouteurs, les ustensiles de cuisine…
Dès le début de la crise sanitaire, les internautes se sont rués principalement sur les manettes de consoles de jeux vidéo, les cahiers d’écritures, les masques anti-gouttelettes et les flacons de gel hydroalcoolique.
Les consommateurs s’adaptent au nouveau contexte engendré par cette crise sanitaire et économique. Une étude de Business Insider Intelligence et eMarketer en mars 2020 indique que le commerce électronique est susceptible de se développer car les consommateurs évitent les magasins physiques.
Impossible d’anticiper des crises
La pandémie a aussi eu des impacts sur les recommandations boursières basées sur l’analyse d’articles de presse. Comme le ton de ces articles était en majorité plus pessimiste que d’habitude, les conseils d’investissement ont été fortement biaisés.
Aucune IA n’avait anticipé ces changements radicaux. « L’apprentissage machine (dit apprentissage supervisé) est fondé sur une inférence logique connue depuis très longtemps. Appelée induction, elle correspond du passage de cas particuliers à des règles générales. On essaie de trouver des régularités. De ce fait, l’apprentissage machine ne peut pas anticiper les crises majeures comme la pandémie actuelle car elles ne correspondent pas à des régularités. Aucune crise passée ne ressemble précisément à celle que nous vivons actuellement. Il est donc difficile d’établir une analogie avec ce qui s’est déjà produit », explique Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie et responsable de l’équipe ACASA (Agents Cognitifs et Apprentissage Symbolique Automatique) du LIP6.
« Faisant suite au buzz « big data », l’IA bénéficie d’un formidable battage médiatique laissant penser que plus les données sont volumineuses meilleures sont les prévisions des algorithmes d’apprentissage automatique. Cela marche effectivement pour certains domaines d’application montés en épingle comme la reconnaissance d’image ou le jeu de Go, mais nettement moins bien pour la prévision d’un comportement humain. Cela n’a pas d’impact personnel fort lorsqu’il s’agit d’une application marketing de recommandation en ligne, mais cela peut être dramatique en police ou justice prédictive avec des taux d’erreur de 30 à 40 % pour l’évaluation d’un risque de récidive. Mais le reconnaître, dégonfler la baudruche de l’IA, remettrait en cause le business des GAFAM », prévient Philippe Besse, Professeur à l’INSA au département de Génie mathématique et modélisation.
Le comportement humain restera encore longtemps mystérieux…
Dans l'actualité
- L’intelligence artificielle, une aide à la conception des robots mouche
- L’intelligence artificielle : entre excitation et éthique
- L’intelligence artificielle perce les secrets des grands peintres
- Cybersécurité : l’intelligence artificielle n’est pas l’arme fatale !
- Comment le machine learning peut aider à la création d’électrolytes plus performants ?
- Des puces neuronales pour booster les machines
- Une neuroprothèse et de l’IA pour améliorer la mobilité
- Comment Quick embauche ses cadres grâce au recrutement prédictif
- Applications de contact-tracing : une sécurité prise à la légère
- L’IA peut-elle aider les DRH à gérer le premier capital de l’entreprise : l’humain ?
- Des livraisons mieux gérées grâce à l’IA
Dans les ressources documentaires