Objectifs :
- Quel cadre pour examiner la progression du développement de l’IA ?
- Quels pourraient être les “nouveaux” dysfonctionnements des nouveaux modèles d’IA ?
- Quelles sont les mesures techniques de sécurité existantes pour l'IA ? Comment ces solutions atténuent les modes de défaillance actuels et permettent d’aborder les problèmes futurs ?
- Quelles stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
- Quels outils d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage ?
Programme :
- Présentation d'un cadre pour examiner la progression du développement de l'IA, en se concentrant sur l'augmentation de l'autonomie et de la généralité des modèles d'IA. Cette tendance suggère que les futures itérations pourraient présenter de nouveaux types de dysfonctionnements non observés dans les modèles actuels.
- Vue d'ensemble des mesures techniques de sécurité existantes pour l'IA : comprendre comment ces solutions atténuent les modes de défaillance actuels et leur potentiel pour aborder les problèmes futurs.
- Élargissement du champ au-delà des solutions purement techniques : présenter la sécurité comme une caractéristique du système socio-technique dans lequel le développement technique a lieu, en discutant des stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
- Conclusion avec une introduction à BELLS : un outil d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage, reflétant notre approche proposée.
Animé par :

Charbel-Raphaël Ségerie
Directeur exécutif du Centre pour la sécurité de l'IA (CeSIA)