Un extrait de « Introduction à l’intelligence artificielle », par Jean-Paul HATON
L’intelligence est une notion multiforme et difficile à préciser. Philosophes et scientifiques se sont attachés à la définir depuis des millénaires. Pour les besoins de l’IA, nous nous contenterons de qualifier l’intelligence par un ensemble de capacités, notamment de mémorisation, de structuration de la connaissance et de conceptualisation, de perception, de raisonnement, de prise de décision, d’apprentissage, de communication et de dialogue.
Ces capacités se retrouvent, à des degrés divers, dans les systèmes d’IA actuels. Ces systèmes se nourrissent des avancées dans ces différents domaines. Inversement, comme il a été dit, l’IA contribue à ce que nous comprenions mieux l’intelligence.
Les grands modèles de l’IA
Dès le début de l’IA dans les années 1950, trois grands types de modèles ont été proposés par les chercheurs pour concevoir des machines intelligentes : les modèles symboliques, les modèles neuromimétiques et les modèles probabilistes et statistiques.
Les modèles symboliques, correspondant à une approche que l’on peut qualifier d’IA symbolique, permettent de doter les systèmes d’IA de mécanismes de raisonnement capables de manipuler les données symboliques qui constituent les connaissances d’un domaine. Cette approche fait appel aux modèles et méthodes de la logique. Elle a donné lieu aux systèmes à bases de connaissances. A. Newell considérait le niveau de connaissance (knowledge level) comme le trait d’union entre l’homme et la machine intelligente, permettant de rationaliser le comportement d’un agent qui, à l’instar de l’être humain, peut prendre une décision en menant un raisonnement fondé sur ses connaissances. Un aspect important est la capitalisation et la diffusion du savoir et de l’expérience, éléments constituant la mémoire d’une organisation. Une base de connaissances se construit à partir d’ontologies qui la structurent et la contraignent. De telles bases interviennent dans de nombreux champs d’application comme l’intelligence économique, le droit, la production industrielle, la médecine, etc.
Les modèles neuromimétiques correspondent à une approche que l’on peut qualifier d’IA connexionniste par analogie métaphorique. Ils reviennent à s’inspirer du fonctionnement du cortex cérébral. L’entité de base est un modèle formel très simplifié du neurone proposé par McCulloch et Pitts en 1943. Chaque neurone possède un certain nombre d’entrées synaptiques, chacune assortie d’un poids ; le neurone effectue la somme pondérée de ses entrées et active sa sortie, reliée à d’autres neurones, si la somme atteint un seuil prédéterminé, comme le montre la figure suivante.
Un système est formé par l’interconnexion d’un grand nombre de tels neurones en couches successives. Cette approche a donné lieu aux réseaux neuromimétiques actuels, avec une grande variété des modèles. La plupart de ces modèles, comme le perceptron multicouche, sont de type feedforward, ce qui signifie que les informations transitent dans un sens unique, de la couche d’entrée vers la couche de sortie. Comme d’autres modèles, les réseaux neuronaux sont capables de calculer toute fonction, d’où leur utilité en IA.
Les modèles probabilistes et statistiques présentent un cadre formel intéressant pour capturer la variabilité inhérente au monde réel et en rendre compte. Ces modèles, tout comme les modèles neuromimétiques, sont capables d’apprendre à partir d’exemples. L’apprentissage revient ici à mémoriser des distributions de probabilités à l’aide d’algorithmes souvent complexes, mais dont les propriétés sont parfaitement connues.
Un modèle probabiliste largement utilisé est celui des réseaux bayésiens. Ces réseaux sont des graphes constitués de nœuds représentant les concepts d’un domaine et d’arcs représentant des relations de causalité probabilisées entre deux concepts (par exemple, tel état physiopathologique d’un patient peut être la cause de tel symptôme, avec telle plausibilité). Un réseau bayésien permet de mener un raisonnement probabiliste sur des faits multiples grâce à des mécanismes de propagation de coefficients de probabilité à travers le réseau. Il est ainsi très intéressant dans des problèmes à choix multiples comme le diagnostic, notamment médical et industriel. Pour des applications en vraie grandeur, ces réseaux de dépendance conditionnelle peuvent atteindre des dimensions considérables. La mise au point et l’exploitation de tels réseaux sont des questions bien maîtrisées.
Le temps est une dimension essentielle dans de nombreuses activités en IA. De ce fait, les modèles statistiques intégrant la variable temporelle, ou modèles stochastiques, comptent parmi les plus utilisés en intelligence artificielle. Le modèle stochastique le plus répandu est le modèle de Markov caché, ou MMC (Hidden Markov Model, HMM). C’est le cas en reconnaissance de la parole où chaque entité à reconnaître (mot, unité phonétique) est représentée par une source de Markov capable d’émettre le signal vocal correspondant à cette entité. La reconnaissance revient alors à calculer la vraisemblance de la suite d’observations acoustiques constituant l’entité à reconnaître par rapport à chacun des modèles appris. Le modèle présentant la plus grande vraisemblance d’avoir émis cette suite d’observations fournit la réponse. Les MMC ont également été utilisés avec succès dans d’autres domaines que la parole, en particulier l’interprétation d’images, la reconnaissance de l’écriture, l’interprétation de signaux (radar, sonar, biologiques, etc.) ou la robotique.
Les trois modèles présentés ci-dessus se rencontrent, parfois simultanément, dans les systèmes d’IA actuels. Les systèmes de traitement d’images et de reconnaissance de la parole, par exemple, sont le plus souvent fondés sur la complémentarité entre des modèles stochastiques MMC et des modèles neuronaux. Les modèles statistiques jouent également un rôle fondamental dans le traitement des grandes masses de données et leur exploitation, en particulier pour la découverte de régularités ou de connaissances.
Une caractéristique commune à tous ces types de modèles est leur capacité d’apprentissage à partir d’exemples. L’apprentissage, capacité fondamentale de l’intelligence, joue ainsi un rôle majeur dans le bon fonctionnement des systèmes d’IA.
Dans l'actualité
- Les thèses du mois : « Encadrer le développement de l’intelligence artificielle pour favoriser une innovation responsable »
- Comment l’Union européenne compte encadrer l’intelligence artificielle
- L’intelligence artificielle permettrait de prédire l’emballement thermique des batteries
- Un nouveau système d’intelligence artificielle autoalimenté à l’énergie solaire
- Sibylle Marcotte : plongée dans les arcanes des réseaux de neurones
- Connaître les enjeux d’une IA éthique et durable
- Purecontrol : l’IA co-pilote de l’industrie 4.0
- Jean-Paul Haton : « L’exploitation des données et des bonnes pratiques permet de concevoir des agents intelligents capables de mieux aider l’humain »
Dans les ressources documentaires