L’évolution la plus marquante à venir en intelligence artificielle est le passage d’outils d’IA à des agents autonomes.
Concrètement, les outils d’intelligence artificielle regroupent des applications logicielles qui utilisent des algorithmes d’intelligence artificielle pour effectuer des tâches généralement effectuées par des humains. Ces outils peuvent par exemple être des outils de traitement du langage naturel, de vision par ordinateur, d’apprentissage automatique ou encore d’automatisation des processus robotisés. La caractéristique des outils d’intelligence artificielle est que ces derniers utilisent les données pour réaliser des tâches prédéfinies de manière optimisée.
Ces outils d’intelligence artificielle vont, dans les mois et les années à venir, être supplantés par ce que l’on nomme des agents autonomes. Un agent autonome est une combinaison d’outils d’IA qui va recueillir lui-même les données pour fonctionner de manière optimisée et autonome. Le fait d’intégrer différents outils d’IA au sein d’un même modèle permet à ces derniers d’être utilisés pour des tâches plus complexes. Là où un outil d’IA optimise une tâche précise pour laquelle on l’entraine, les agents autonomes décomposent des problèmes complexes en plusieurs étapes, de manière autonome, pour être en mesure de proposer les actions nécessaires à la résolution de ce problème. Avec la capacité de modifier leur approche si besoin, en fonction des résultats intermédiaires obtenus en “décortiquant” la problématique.
On voit donc que l’avènement à venir des agents autonomes va démultiplier le potentiel de l’intelligence artificielle pour ses utilisateurs : la capacité des agents autonomes à prendre eux-mêmes des décisions quant à la résolution d’un problème change totalement la façon d’appréhender comment l’intelligence artificielle peut intervenir dans la vie quotidienne, et dans le fonctionnement des entreprises.
Découlent également de ces nouvelles capacités des problématiques de sécurité. En effet, les agents autonomes sont en mesure de naviguer sur internet, de prendre le contrôle d’ordinateurs, ils ont également une mémoire propre, et l’accès à des grands modèles de langage, ce qui leur permet d’analyser et de synthétiser de grandes quantités de texte.
Une des inquiétudes liée au développement des agents autonomes d’IA est la motivation derrière la prise de décision, et la capacité de l’IA à être alignée avec ce que demande l’opérateur. Cette problématique d’alignement ou plutôt de non alignement, quand on aborde la sécurité des IA, est de plus en plus présente à mesure que les modèles d’intelligence artificielle fonctionnent de manière autonome.
Les craintes de voir des modèles d’IA, pour atteindre les objectifs demandés, utiliser des méthodes non éthiques ou pratiquer la tromperie se sont déjà matérialisées sur certains modèles développés. L’imprévisibilité de leur comportement est également une préoccupation, qui plus est quand on parle d’application d’IA que l’on laisse opérer de manière autonome.
Ensuite, les risques de cyberattaques sont beaucoup plus importants avec les agents autonomes d’intelligence artificielle, justement de par leur automatisation et leur connexion à internet. Ils sont beaucoup plus exposés à des tentatives d’intrusion, dont peut résulter une modification de leur comportement, le vol de données privées ou sensibles, ou leur utilisation pour commettre des actes malveillants. Pour l’industrie par exemple, il est facile d’imaginer à quel point ces risques sont incompatibles avec la criticité de certaines applications.
Ces risques, dont la liste ne s’arrête pas là, oblige les régulateurs à se pencher largement sur les normes de sécurité à mettre en place autour de ces applications d’IA de plus en plus autonomes, pour assurer le fait que ces dernières ne franchissent pas de ligne rouge, que ce soit en termes d’éthique, de perte de contrôle ou de comportement.
Dans l'actualité