Conférences en ligne : direct et replay

Informatique et Numérique REPLAY

Sécurité et nouveaux modèles d’intelligence artificielle – REPLAY

Vous souhaitez partager cette conférence en ligne ?   

Facebook

Twitter

Linkedin

Le règlement européen sur l’intelligence artificielle, adopté il y a quelques mois, doit veiller à ce que les systèmes d’IA mis sur le marché respectent les droits humains et les législations en vigueur. Cette mise en œuvre répond à la nécessité de mieux encadrer le développement de nouveaux modèles d’IA de plus en plus autonomes, qui pourraient poser des problèmes inédits en termes de sécurité.

Objectifs :

Ce webinar permet de répondre aux questions suivantes :
  • Quel cadre pour examiner la progression du développement de l’IA ?
  • Quels pourraient être les “nouveaux” dysfonctionnements des nouveaux modèles d’IA ?
  • Quelles sont les mesures techniques de sécurité existantes pour l'IA ? Comment ces solutions atténuent les modes de défaillance actuels et permettent d’aborder les problèmes futurs ?
  • Quelles stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
  • Quels outils d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage ?

Programme :

  • Présentation d'un cadre pour examiner la progression du développement de l'IA, en se concentrant sur l'augmentation de l'autonomie et de la généralité des modèles d'IA. Cette tendance suggère que les futures itérations pourraient présenter de nouveaux types de dysfonctionnements non observés dans les modèles actuels.
  • Vue d'ensemble des mesures techniques de sécurité existantes pour l'IA : comprendre comment ces solutions atténuent les modes de défaillance actuels et leur potentiel pour aborder les problèmes futurs.
  • Élargissement du champ au-delà des solutions purement techniques : présenter la sécurité comme une caractéristique du système socio-technique dans lequel le développement technique a lieu, en discutant des stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
  • Conclusion avec une introduction à BELLS : un outil d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage, reflétant notre approche proposée.

Animé par :

Charbel-Raphaël Ségerie

Directeur exécutif du Centre pour la sécurité de l'IA (CeSIA)

Charbel-Raphaël Ségerie est directeur exécutif du Centre pour la sécurité de l'IA (CeSIA) à Paris, où il dirige la recherche et l'enseignement sur la sécurité de l'IA. Il enseigne également la sécurité de l'IA à l'École Normale Supérieure. Son travail se concentre sur l’identification des risques émergents dans l’intelligence artificielle, l’amélioration des méthodes de sécurité actuelles telles que le RLHF et l’interprétabilité, et l’avancement des approches d’IA sûres dès la conception. De plus, il contribue aux efforts d’évaluation de l’IA et collabore au code de bonnes pratiques du Bureau européen de l’IA pour les systèmes d’IA à usage général.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !