Conférences en ligne : direct et replay

Informatique et Numérique

Sécurité et nouveaux modèles d’intelligence artificielle

À partir de Jeudi 13 Mars 2025 à 11h00

Vous souhaitez partager cette conférence en ligne ?   

Facebook

Twitter

Linkedin

Le règlement européen sur l’intelligence artificielle, adopté il y a quelques mois, doit veiller à ce que les systèmes d’IA mis sur le marché respectent les droits humains et les législations en vigueur. Cette mise en œuvre répond à la nécessité de mieux encadrer le développement de nouveaux modèles d’IA de plus en plus autonomes, qui pourraient poser des problèmes inédits en termes de sécurité.

Objectifs :

Ce webinar permettra de répondre aux questions suivantes :
  • Quel cadre pour examiner la progression du développement de l’IA ?
  • Quels pourraient être les “nouveaux” dysfonctionnements des nouveaux modèles d’IA ?
  • Quelles sont les mesures techniques de sécurité existantes pour l'IA ? Comment ces solutions atténuent les modes de défaillance actuels et permettent d’aborder les problèmes futurs ?
  • Quelles stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
  • Quels outils d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage ?

Programme :

  • Présentation d'un cadre pour examiner la progression du développement de l'IA, en se concentrant sur l'augmentation de l'autonomie et de la généralité des modèles d'IA. Cette tendance suggère que les futures itérations pourraient présenter de nouveaux types de dysfonctionnements non observés dans les modèles actuels.
  • Vue d'ensemble des mesures techniques de sécurité existantes pour l'IA : comprendre comment ces solutions atténuent les modes de défaillance actuels et leur potentiel pour aborder les problèmes futurs.
  • Élargissement du champ au-delà des solutions purement techniques : présenter la sécurité comme une caractéristique du système socio-technique dans lequel le développement technique a lieu, en discutant des stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
  • Conclusion avec une introduction à BELLS : un outil d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage, reflétant notre approche proposée.

Animé par :

Charbel-Raphaël Ségerie

Directeur exécutif du Centre pour la sécurité de l'IA (CeSIA)

Charbel-Raphaël Ségerie est directeur exécutif du Centre pour la sécurité de l'IA (CeSIA) à Paris, où il dirige la recherche et l'enseignement sur la sécurité de l'IA. Il enseigne également la sécurité de l'IA à l'École Normale Supérieure. Son travail se concentre sur l’identification des risques émergents dans l’intelligence artificielle, l’amélioration des méthodes de sécurité actuelles telles que le RLHF et l’interprétabilité, et l’avancement des approches d’IA sûres dès la conception. De plus, il contribue aux efforts d’évaluation de l’IA et collabore au code de bonnes pratiques du Bureau européen de l’IA pour les systèmes d’IA à usage général.

Formulaire d'inscription

Chargement

Merci de patienter ...

Comment participer ?

1 Inscription

Une fois inscrit, vous recevez un email de confirmation avec un lien pour vous connecter à la conférence en ligne le jour J.

2 Connexion

Vous rejoignez la conférence en ligne, l’application GoToWebinar se télécharge automatiquement. Vous suivez la conférence soit par le téléphone en suivant les instructions données, soit par les haut-parleurs de votre ordinateur.

3 Participation

Le présentateur partage son écran avec l’ensemble des participants. Vous avez aussi la possibilité de poser des questions via une fenêtre de chat. La conférence est enregistrée et vous pouvez l’écouter en différé.