Mais ce n'est qu'une expérimentation
Les députés examinent aujourd’hui une proposition de loi sur la sûreté dans les transports, qui vise notamment à autoriser de nouvelles expérimentations en matière de vidéosurveillance algorithmique (VSA). Un texte critiqué par les ONG de défense des droits numériques.
Ce mercredi 15 mai, en commission, les députés examinent une proposition de loi déposée le 28 décembre par le député Philippe Tarabot (Les Républicains) et relative « à la sûreté dans les transports ».
Auprès du Monde, son rapporteur Clément Beaune ne cache pas que cette proposition de loi s’inscrit dans la droite ligne des lois « sécurité globale » de 2021, Jeux Olympiques de 2023 et Savary (relative à la lutte contre les incivilités, les atteintes à la sécurité publique et les actes terroristes dans les transports collectifs) de 2016.
Alors qu’Amnesty International appelle les parlementaires à ancrer dans la loi une interdiction de recours à la reconnaissance faciale dans l’espace public, l’ancien ministre insiste de son côté sur le fait que ce texte-ci « ne permet pas l’utilisation de la reconnaissance faciale ou d’outils biométriques ». Il permet, en revanche, l’usage de traitements algorithmiques sur les captations de vidéosurveillance réalisées par les agents.
La Quadrature du Net, de son côté, critique autant le fond que la forme : le texte est étudié en procédure accélérée, ce qui signifie qu’il ne fera l’objet que d’une lecture par Chambre. Le but : la rendre opérationnelle avant l’ouverture des Jeux olympiques et paralympiques.
Spécialiste des enjeux de surveillance, l’association déclare ne pas avoir été auditionnée et estime que la rapidité du processus empêche les parlementaires d’être correctement informés sur les enjeux posés par les technologies dont il est question.
- La RATP expérimente sa vidéosurveillance algorithmique pour les concerts de Taylor Swift
- JO 2024 : les 3 « solutions algorithmiques » de vidéosurveillance du ministère de l’Intérieur
La technologie pour « sécuriser l’offre de service »
En pratique, c’est le chapitre III du texte, intitulé « une sécurisation de l’offre de service par la technologie », qui concentre le gros des critiques. En l’état, celui-ci prévoit que « dans l’exercice de leurs missions […] et dans le cadre de la prévention des atteintes à l’ordre public, les agents assermentés […] peuvent procéder, au moyen de caméras individuelles, à un enregistrement audiovisuel de leurs interventions lorsque se produit ou est susceptible de se produire un incident, eu égard aux circonstances de l’intervention ou au comportement des personnes concernées. »
L’enregistrement est déclaré non permanent, et a « pour finalités la prévention des incidents au cours des interventions des agents assermentés […] le constat des infractions et la poursuite de leurs auteurs par la collecte de preuves ainsi que la formation et la pédagogie des agents. Lorsque la sécurité des agents est menacée, les images captées et enregistrées au moyen de caméras individuelles peuvent être transmises en temps réel au poste de commandement du service concerné. »
Les caméras doivent être portées « de façon apparente », un « signal visuel » doit témoigner de l’enregistrement en cours, et les personnes enregistrées en être informées. « Les enregistrements audiovisuels, hors le cas où ils sont utilisés dans le cadre d’une procédure judiciaire, administrative ou disciplinaire, sont effacés au bout de trente jours. »
L’article 8 bis donne aussi, « à titre expérimental », l’autorisation pour les « conducteurs des services réguliers de transport public par autobus ou autocars » de recourir aux caméras individuelles, pour les mêmes raisons.
L’article 11 permet par ailleurs aux opérateurs de transport public de « mettre en œuvre un système consistant en la captation, la transmission et l’enregistrement du son dans les véhicules qu’ils utilisent » pour leur service régulier. Et ce, pour les mêmes motifs qu’ils sont autorisés à réaliser des enregistrements audiovisuels.
Craintes durables envers les expérimentations de vidéosurveillance algorithmique
Le traitement algorithmique des flux collectés, de son côté, est encadré par l’article 9 de la proposition de loi. La Quadrature du Net critique un « quasi copié-collé de l’article 10 de la loi relative aux Jeux olympiques », en ce qu’il permet, « à titre expérimental et jusqu’à 1er janvier 2027 », de « mettre en œuvre des logiciels de traitement de données non biométriques pour extraire et exporter les images ainsi réquisitionnées » pour analyser les images recueillies, lorsqu’il existe « une ou plusieurs raisons plausibles de soupçonner » que les personnes enregistrées ont « commis ou tenté de commettre une infraction ».
L’article 10 de la proposition de loi sur la sûreté dans les transports donne aux services internes de sécurité de la SNCF et de la RATP l’autorisation de « collecter et traiter des données sensibles, à l’exception des données génétiques, biométriques ou concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique ».
En 2023, le Conseil constitutionnel a déclaré l’article 10 du texte précédent (qui permet aussi l’usage de drones) constitutionnel. Cela dit, comme elle le critiquait déjà lors des travaux sur la loi relative aux Jeux olympiques, Amnesty International souligne que de la vidéosurveillance algorithmique à la reconnaissance faciale, « il n’y a qu’un pas ».
La Quadrature du Net considère par ailleurs qu’un projet d’expérimentation sur trois ans comme celui proposé par le texte ne sert qu’à « banaliser et légitimer » des technologies testées illégalement, et dont l’usage ultime consiste à « augmenter le contrôle de l’espace public, réduisant ainsi l’anonymat et les libertés qu’on y exerce ». Et d’illustrer comment, même sans reconnaissance faciale ou biométrique, l’étendue des contrôles déjà rendue possible par les technologies de VSA est large.
Sans compter qu’au sujet de la reconnaissance faciale, des expérimentations sont déjà réalisées, encore une fois de manière illégale.