Depuis 2008, la Quadrature du Net* défend les libertés fondamentales des citoyens dans l’univers numérique. Initialement centrée sur le web, cette association politique s’est désormais ouverte à tout le secteur du numérique et lutte entre autres contre la censure et la surveillance, pour promouvoir à l’inverse un Internet libre et décentralisé.
Chercheur associé au Centre Internet et Société du CNRS, Félix Tréguer est membre fondateur de la Quadrature du Net et auteur du livre Contre-histoire d’Internet. Pour Techniques de l’Ingénieur, il revient sur les risques de l’intelligence artificielle pour notre démocratie et invite à une réflexion profonde sur notre utilisation du numérique.
Techniques de l’Ingénieur : Qu’est-ce que la Quadrature du Net ?
Félix Tréguer : La Quadrature du Net est une association politique qui a pour rôle de défendre une vision émancipatrice du web et le respect des droits humains dans tout ce qui touche au numérique. Elle a été créée par des militants qui revendiquent la possibilité d’une informatique démocratique contrôlée par les utilisateurs, et qui ménage un large espace aux communications et aux services non marchands.
Initialement centrés sur les sujets liés au web comme les droits d’auteur ou la neutralité du net, nous avons évolué en 2019 vers des sujets qui concernent le numérique de manière plus large. Par exemple, notre initiative Technopolice porte sur l’incorporation de l’IA dans les pratiques de surveillance policière.
Concrètement, nous avons des activités de lobbying citoyen : nous récupérons des informations, nous menons des analyses techniques, politiques, juridiques, nous rencontrons des parlementaires français et européens, et nous menons des actions en justice si besoin.
Sur quels sujets allez-vous travailler en 2024 ?
Notre volet Technopolice prend de l’ampleur avec les JO 2024 et l’expérimentation de la loi sur la vidéosurveillance algorithmique. Cette surveillance est utilisée depuis des années illégalement et entre cette année dans le cadre législatif expérimental. Un autre dossier concerne la défense du droit au chiffrement des communications pour lutter contre la surveillance étatique. Il y a eu de grands progrès dans la démocratisation de ces techniques, qui ont été déployées par WhatsApp par exemple, mais elles restent criminalisées car elles gêneraient la surveillance policière des communications. Il nous semble important de rappeler pourquoi le chiffrement est fondamental et d’alerter sur la surveillance numérique croissante.
Nous souhaitons aussi pousser l’interopérabilité pour casser les monopoles des grands réseaux sociaux toxiques qui dominent nos espaces de communication. Enfin, nous allons continuer à dénoncer les pratiques anti-fraude et l’utilisation d’algorithmes de scoring dans des organismes comme la Caf. Ils utilisent des scores de risques pour évaluer les allocataires susceptibles de frauder, or ces dispositifs sont intrinsèquement discriminatoires et réorientent les contrôles vers les personnes déjà en situation de précarité très forte. Nous allons tenter de faire interdire ce type de pratique.
Quelles dérives avez-vous observé concernant l’IA ?
Nous avons beaucoup travaillé sur les IA policières, et nous nous inquiétons du déploiement à très grande vitesse des innovations dans ce domaine, car nos sociétés sont peu armées pour y faire face. Concrètement, la surveillance croit largement avec les techniques d’IA et elles ont un effet “boîte noire” car on ne sait pas exactement comment elles fonctionnent. Ainsi, ces dernières années, la police prédictive a été déployée dans une opacité totale. Tout un tas de statistiques sur la délinquance sont croisées avec des données sociodémographiques pour évaluer dans quelles zones il risque d’y avoir des incidents. Or, comme pour les scores de risques de la Caf, il y a de grandes chances pour que les facteurs de risques élevés soient corrélés avec des variables discriminatoires.
Prenons maintenant la vidéosurveillance algorithmique, donc l’idée d’automatiser la vidéosurveillance pour repérer automatiquement certaines personnes selon des critères spécifiques. Si ces techniques avaient été déployées dans les années 40, il n’aurait pas été possible d’organiser des réseaux clandestins de résistance contre le nazisme. Parfois, la démocratie tient en l’absence d’infrastructures de surveillance. Or ces technologies permettent une surveillance permanente et exhaustive de l’espace public donc elles nous semblent fondamentalement antidémocratiques. En parallèle, nous avons constaté une forme de laisser-faire total de la Cnil sur ces questions.
En quoi l’IA augmente les rapports de force dans nos sociétés ?
Contrairement à l’idée initiale du web et des ordinateurs personnels qui étaient de décentraliser l’accès aux ressources informatiques, nous sommes revenus à un numérique aux mains de quelques grandes organisations. Et c’est particulièrement le cas avec l’IA. Même si des alternatives émergent, elles ne sont pas encore à même de concurrencer les grands acteurs qui ont accès à des capacités de données et de calculs énormes. L’informatique centralise le pouvoir, elle inscrit les relations sociales dans des dispositifs techniques qui sont très difficiles à comprendre et donc à critiquer.
Un autre aspect qui a été beaucoup passé sous silence, c’est le coût écologique de ces systèmes. Le numérique est devenu un rouage essentiel d’une société industrielle qui a des impacts écologiques massifs et qui menace la survie de nombreuses espèces. Aujourd’hui, on ajoute de l’informatique à tous les échelons de la société alors que l’utopie première était juste de communiquer entre humains. Cela s’accompagne d’un coût énergétique énorme et de l’exploitation de ressources minières extrêmement rares avec tous les désordres géopolitiques que cela suppose. Ainsi, l’informatique est une machine au service du pouvoir qui ne fait qu’augmenter les désordres qu’occasionne une société saturée de rapports de domination.
Quelle marge de manœuvre avons-nous en tant que société civile ?
C’est le problème d’une société pas véritablement démocratique car, collectivement, nous n’avons pas vraiment de prise sur ces trajectoires. Quand la Caf décide d’utiliser des algorithmes pour les scores de risques, il n’y a pas de discussions, de débats au Parlement, ou même de communication publique. Pareil pour les IA policières qui se sont développées dans l’illégalité. Et une fois les technologies installées, les citoyens sont tellement habitués qu’ils ne cherchent pas à revenir en arrière. Nous sommes dans un régime politique en mauvaise santé, qui prend des décisions avec des intérêts capitalistes.
C’est pour cela que le travail que nous réalisons avec la Quadrature du Net est très important. Mais si nous arrivons à remporter quelques manches, j’ai l’impression de perdre la guerre car la surveillance numérique contre laquelle nous nous battons progresse. C’est assez compliqué de créer des effets de masse car ces questions restent techniques. Je pense qu’il faudrait davantage politiser les informaticiens, les techniciens. Ces personnes gèrent un pan crucial du système politique et économique mondial, et leurs voix pourraient faire pencher la balance.
Quelles sont vos propositions pour un numérique plus éthique ?
Il faut repenser les pratiques et se défaire de nos dépendances. Parmi les nouveaux dossiers que nous aimerions lancer, il y aurait une réflexion sur un numérique lowtech, moins énergivore. Il existe déjà tout un tas de réflexions intéressantes dans le milieu universitaire et militant. Pour commencer, nous pourrions retirer le numérique de plein d’endroits de la société où il n’est pas nécessaire. Il ne faut d’ailleurs pas oublier que les machines restent fragiles et créent des vulnérabilités dans les domaines qui ne fonctionnent plus que grâce au numérique. Il faudrait également repenser les terminaux avec des machines plus rudimentaires pour revenir à notre objectif initial qui était de communiquer entre humains.
Ensuite, nous pourrions questionner nos usages, et sortir du modèle du réseau social centralisé, où les débats sont polarisés et les discours de haine valorisés. Cela passe par des questionnements comme : comment faire communauté autour du web ? Comment s’échanger de l’information de qualité ? Il s’agit donc de repenser le web sans se faire imposer des outils par les GAFA, et en sortant des discours de greenwashing courants dans le secteur.
Que répondre aux personnes qui voient les limitations comme des entraves au progrès scientifique ?
La recherche en science n’est pas du tout une sphère de réflexion autonome dont les conséquences seraient séparées des sphères sociale et économique. On ne peut pas travailler dans l’IA en se disant que la question énergétique n’est pas de son ressort. Ces arguments produisent une forme d’irresponsabilité collective des scientifiques vis-à-vis de leurs travaux. La science et la technoscience sont partie prenante des logiques délétères de notre société, notamment écologiques, donc il me semble assez logique que les acteurs de ce secteur se saisissent de ces enjeux et cessent la complicité passive ou active avec ce type de tendances.
Que pensez-vous des initiatives de régulation comme l’AI Act à venir dans l’Union européenne, ou les propositions du AI Safety Summit qui a eu lieu en novembre dernier ?
Etant données les controverses autour d’une IA qui remplacerait certains métiers, il y a des tentatives de régulations. Mais je regrette que le débat soit dominé par la perspective d’une menace lointaine car elle laisse sous silence tous les dommages de l’IA aujourd’hui. L’AI Act part probablement d’une bonne intention, mais je le vois surtout comme une manière de rassurer la population et renforcer l’acceptabilité sociale d’une technologie controversée, en proposant quelques encadrements. Évidemment, il faudrait réussir à réguler le numérique par le droit mais je pense qu’il faudrait plutôt mener une vraie réflexion pour se demander si ces technologies nous sont vraiment utiles. Pour l’instant, les règlements autour de l’IA me semblent être des gestes de communication dont les effets restent marginaux face aux enjeux.
Propos recueillis par Alexandra Vépierre
* La Quadrature du Net
Cet article se trouve dans le dossier :
Intelligence artificielle : le progrès à quel prix ?
- Racistes, sexistes, classistes : comment les biais algorithmiques creusent les inégalités ?
- Félix Tréguer : “La surveillance croit largement avec les techniques d’IA”
- « Les entreprises foncent tête baissée dans l’IA sans se poser de questions »
- Peut-on concevoir des algorithmes réellement éthiques ?
- Biais algorithmiques : la sensibilisation commence dès la formation
Dans l'actualité
- Racistes, sexistes, classistes : comment les biais algorithmiques creusent les inégalités ?
- De nouvelles initiatives pour améliorer et décarboner le dessalement de l’eau de mer
- Biais algorithmiques : la sensibilisation commence dès la formation
- « Les entreprises foncent tête baissée dans l’IA sans se poser de questions »
- Comment l’intelligence artificielle devine-t-elle facilement vos mots de passe ?
- Intelligence artificielle : l’Europe ne fait pas le poids face aux Américains et Chinois
- Peut-on concevoir des algorithmes réellement éthiques ?
- En image : bientôt des chatbots pour assurer les entretiens d’embauche ?
- Les Français attendent plus d’engagements des entreprises
- Après les JO, la vidéosurveillance algorithmique joue les prolongations
- Connaître les enjeux d’une IA éthique et durable