Ce n’est une surprise pour personne. L’expérimentation de la surveillance algorithmique (appelée aussi « vidéo augmentée ») durant les JO de Paris va se généraliser progressivement, tout en douceur. La Préfecture de Police l’avait d’ailleurs testée lors d’un concert de Depeche Mode en mars 2024 à l’Accor Arena de Bercy.
Dans une tribune publiée le 19 octobre dernier dans le quotidien Le monde, Yoann Nabat et Élia Verdon, cofondateurs de l’Observatoire de la surveillance en démocratie, précisaient en effet que la formulation du texte de l’article 10 de la loi du 19 mai 2023 était très large.
De quoi favoriser sa généralisation comme le fichage des empreintes génétiques. « Instauré à la fin des années 90 uniquement pour les auteurs de crimes sexuels, il s’applique aujourd’hui à tous les délits et crimes, même sans condamnation », rappelle Yoann Nabat, qui est également maître de conférences en droit privé et sciences criminelles à l’université Bordeaux Montaigne.
Pas d’efficacité prouvée
Ce texte parlait d’une « expérimentation », autorisant la mise en œuvre de la vidéosurveillance algorithmique afin d’assurer la sécurité des manifestations « sportives, récréatives ou culturelles (…) particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ».
Selon la CNIL, la vidéo augmentée désigne « des dispositifs vidéo auxquels sont associés des traitements algorithmiques mis en œuvre par des logiciels, permettant une analyse automatique, en temps réel et en continu, des images captées par la caméra ».
Cette intelligence embarquée repose sur un algorithme qui automatise l’analyse des images captées par caméras, jusqu’à présent réalisée par des opérateurs vidéo au sein de centres de supervision urbains (CSU). Pour les grosses métropoles, la raison officielle est que le grand nombre de caméras déployées nécessite d’automatiser la surveillance.
Le problème est que ces dispositifs n’ont jamais prouvé leur efficacité. « Il n’y a pas à ma connaissance, d’expérimentations qui ont donné lieu à une publication, un rapport, quelque chose qui puisse véritablement étayer un peu l’efficacité de ces dispositifs », constate Yoann Nabat.
Une étude commanditée par la gendarmerie nationale concluait « à un apport très marginal de la vidéosurveillance dans la résolution des enquêtes judiciaires, mais aussi dans la dissuasion ».
Ces dispositifs font débat en France et donnent lieu à différentes plaintes. Trois plaintes collectives ont même été déposées devant la CNIL contre le ministère de l’Intérieur par la Quadrature du Net.
Créée en 2008, cette association, qui promeut et défend les libertés fondamentales dans l’environnement, avait aussi déposé un recours devant le tribunal administratif d’Orléans et une plainte devant la CNIL. Cette ville expérimentait le couplage entre vidéosurveillance et détection sonore.
La tentation est d’autant plus grande pour les municipalités d’associer différentes technologies que le lien entre vidéosurveillance « classique » et vidéosurveillance algorithmique est minime.
« Les logiciels qui supervisent ces caméras dans les centres de sécurité urbains sont généralement équipés de dispositifs algorithmiques, de reconnaissance, etc. Il suffit d’appuyer sur un bouton pour activer la vidéo augmentée », souligne Yoann Nabat.
Or, selon la CNIL, la surveillance algorithmique est illégale et elle doit respecter le RGPD, car il s’agit de traitement de données à caractère personnel. Malgré cela, ces dispositifs devraient continuer à être déployés en toute opacité (le ministère de l’Intérieur ne communiquant pas sur leur nombre).
« Une poignée d’éditeurs et industriels (Thales, Idemia, Neuroo, Datakalab, Two-I, Evitech, NDLR) vont évidemment continuer à développer leurs solutions. D’autres acteurs vont s’y mettre et les mairies vont les acheter. Ça va devenir un argument sécuritaire », déclare Yoann Nabat.
Dans l'actualité
- QR code : une meilleure sécurisation des JO de Paris, mais pas sans risque
- Félix Tréguer : “La surveillance croit largement avec les techniques d’IA”
- Écoutez notre podcast Cogitons Sciences : Pour une intégration éthique et règlementée de l’IA [L’IA s’invite dans nos métiers #3]
- Racistes, sexistes, classistes : comment les biais algorithmiques creusent les inégalités ?
- Sécurité des objets connectés : l’Europe passe à l’action
- Revue du Magazine d’actualité #10 : du 11 au 15 novembre
Dans les ressources documentaires
- Risques urbains - Concepts et définitions
- Traçabilité et libertés individuelles
- La biométrie à l’épreuve de la sécurité - Usages et réglementations
- Médias numériques et Intelligence Artificielle (IA) : Applications images et sons
- Zones à régime restrictif - Anticiper les vulnérabilités à l’aide d’un outil d’analyse