Livres blancs en téléchargement gratuit

Pour accompagner vos abonnements aux ressources documentaires et services, Techniques de l'Ingénieur vous offre les dossiers spéciaux de la rédaction sur des sujets variés, à télécharger gratuitement.

Encadrer le développement de l'intelligence artificielle pour favoriser une innovation responsable

Publié en novembre 2024

Les modèles d’intelligence artificielle, de plus en plus performants et sophistiqués, vont dans les mois et les années à venir révolutionner à la fois notre quotidien mais surtout notre travail. Les secteurs d’activité comme la bureautique devraient être impactés en premier lieu. De nombreux chercheurs tentent d'évaluer dans quelle mesure l’IA va rendre obsolètes de nombreux emplois. Les prédictions varient : Les plus optimistes laissent entendre que l’IA va créer autant d’emplois qu’elle va en détruire, tandis que les enquêtes les plus pessimistes laissent penser que nous devons nous préparer, en ce qui concerne la bureautique par exemple, à un chômage de masse. Selon les chercheurs qui ont mené ces enquêtes, dans quelques années, l’IA pourra accomplir de manière optimale toutes les fonctions bureautiques aujourd’hui assurées par l’humain.

Pour illustrer cette tendance, évoquons les agents autonomes, des modèles d’IA émergents capables de traiter de manière autonome des problèmes complexes en les divisant en de multiples petites tâches à résoudre. Ces agents d’IA peuvent utiliser, pour atteindre les objectifs qu’on leur fixe, de nombreuses ressources à leur disposition, comme des ordinateurs ou bien le web, sans supervision. A partir de là, il est déjà moins compliqué pour l’esprit humain de voir comment l’IA pourrait bientôt remplacer les humains sur de nombreuses tâches, répétitives ou même nécessitant des raisonnements cognitifs.

Ces évolutions engendrent aussi des problématiques sérieuses en termes de sécurité et d’éthique. Des intelligences artificielles en capacité d’aller de manière autonome sur le web deviennent de facto plus vulnérables aux attaques informatiques. Aussi, laisser à une IA le loisir de gérer elle-même les tâches à accomplir pour atteindre un objectif interroge sur la capacité humaine à déceler efficacement de manière fiable les biais éthiques susceptibles d’apparaître tout au long du processus de résolution des problèmes par les modèles d’IA. Autre exemple, il faudra un jour se poser la question du remplacement par les IA de nombreux emplois aujourd’hui exercés par des humains. On parlait d’éventuel chômage de masse, il convient de statuer si, en termes de valeurs et d’éthique, l’être humain est prêt à céder aux IA tout ce qui peut être cédé, en termes d’emplois. 

Citons ce que l’on nomme le risque de malveillance. Il est lié au fait qu’une IA mal gérée ou mal objectivée puisse, toujours de manière autonome, tromper l’humain ou mettre en oeuvre des actions malveillantes à son encontre. 

Enfin, le sujet des armes autonomes est également sorti du domaine de la science fiction pour entrer dans la réalité. Des armes automatiques, aujourd’hui guidées, seront bientôt en mesure d’atteindre elles-même leurs cibles, sans interventions extérieures. Cela pose des problèmes éthiques évidents. 

Tout ceci incite les autorités à mettre en place des lignes rouges, qui doivent permettre de garder le contrôle sur les modèles d’intelligence artificielle mis en oeuvre aujourd’hui. C’est ce qui a été fait avec l’entrée en vigueur du règlement européen sur l’IA, ou RIA, qui doit borner ce qui est acceptable et ce qui ne l’est pas quand on développe un produit à base d’IA. Ce règlement, qui se veut agile et évolutif, doit accompagner le déploiement actuel et futur des nouveaux modèles d’IA, dont les progrès sont tellement fulgurants qu’il est compliqué d’anticiper sur ce que permettra l’IA dans seulement cinq ans.

 


Visuel principal généré avec Adobe Firefly

Vous souhaitez partager ce livre blanc ?   

Facebook

Twitter

Linkedin

Chargement

Merci de patienter ...