En ce moment

Les grands modèles de langage : de puissants outils qui restent encore à maîtriser

Posté le 14 juin 2024
par Philippe RICHARD
dans Informatique et Numérique

L’industrie manufacturière cherche constamment de nouveaux moyens d’accroître l’automatisation, d’améliorer la visibilité opérationnelle et d’accélérer le développement des produits et des technologies. L’intelligence artificielle représente des opportunités, mais aussi de nombreux défis.

En quelques mois, la planète a découvert les LLL ou « Large Language Models » avec le lancement de ChatGPT d’OpenAI. Ces modèles de base utilisent l’IA générative (ou GenAI) pour le traitement du langage naturel (NLP) et la génération de langage naturel (NLG). Ainsi, ChatGPT s’appuie sur GPT (Generative Pretrained Transformer), le modèle de langage développé par OpenAI et qui comprend 175 milliards de paramètres.

Ces modèles sont capables de réaliser une variété de tâches, comme la traduction automatique, la génération de texte, la réponse aux questions… Les LLL sont surtout utilisés en informatique pour développer des chatbots, des outils de traduction automatique, et d’autres applications d’intelligence artificielle.

Côté négatif, différents métiers seraient menacés par la GenAI. Les postes en administration d’entreprise sont les plus menacés. L’IA pourrait remplacer jusqu’à 90 % de leurs tâches, étant donné que beaucoup peuvent être automatisées selon une étude d’Indeed.

Côté positif, le secteur industriel pour profiter des capacités des LLL en permettant de comprendre et d’organiser des informations complexes et de générer des interactions de type humain.

L’industrie manufacturière génère en effet d’énormes volumes de données complexes non structurées (capteurs, images, vidéos, télémétrie, LiDAR, etc.) générées par des véhicules, des machines et même des travailleurs connectés via des capteurs. Pour l’industrie, il est essentiel de diffuser ces informations en temps réel et de les fusionner avec d’importantes sources de données contextuelles afin de répondre aux événements importants de manière significative.

La flexibilité et les capacités prédictives des grands modèles de langage ouvrent la voie à un large éventail de cas d’usage industriel, présentant des capacités à révolutionner les opérations et offrant des gains d’efficacité substantiels.

On peut citer différents cas. Le plus évident pour l’industrie est l’assistance à la maintenance. Les LLM peuvent fournir une assistance en temps réel au personnel spécialisé en accédant et en interprétant les informations de la base de données de maintenance de l’entreprise et des documents connexes, ce qui permet d’obtenir des conseils de dépannage immédiats et précis.

Le contrôle humain reste indispensable

En analysant les rapports d’incidents de sécurité et les données sur les accidents évités de justesse, il est possible d’identifier des modèles, extraire des informations et élaborer des mesures de sécurité proactives, contribuant ainsi à rendre l’environnement de travail plus sûr et plus sain.

Les LLL peuvent aussi aider à évaluer les risques d’un projet, à estimer l’impact des différents scenarii de risque et à élaborer des stratégies visant à les atténuer. Ces analyses des risques permettent à des secteurs très réglementés de respecter plus facilement les conformités en cours. Ils peuvent notamment repérer les écarts par rapport aux exigences réglementaires dans les données d’un projet et mettre en place des actions correctives.

De façon plus globale, les LLL permettent de gérer des projets complexes. L’automatisation de la génération de la documentation d’un projet y compris les plans, les calendriers et les rapports d’avancement, permet de réduire les efforts humains (qui peuvent être sujets à des erreurs) et d’améliorer la précision.

Cependant, la construction d’un LLL est un projet complexe qui nécessite généralement un niveau d’expertise important, des ressources informatiques substantielles et l’accès à de nombreuses données. Ce processus comprend en effet plusieurs étapes clés, notamment la collecte de données, le prétraitement, la sélection d’une architecture de réseau neuronal appropriée, la conception du modèle, le préentraînement sur de vastes ensembles de données pour des tâches spécifiques, l’évaluation et l’affinement continus et, enfin, le déploiement.

Autres défis, les biais inhérents à leurs résultats et les problèmes de confidentialité des données. Ces modèles doivent donc être utilisés avec prudence et leurs résultats doivent toujours être vérifiés par des humains.


Crédit visuel de une : image générée par Adobe Firefly


Pour aller plus loin