En juillet 2022, au sujet de la VSA, dans un document intitulé “Caméras dites “intelligentes” ou “augmentées” dans les espaces publics – Position sur les conditions de déploiement”, la CNIL précisait dans ses conclusions que “les conditions d’application à cette nouvelle technologie des règles relatives à la protection des données, et des principes protégeant les droits fondamentaux, sont, en partie, incertaines ou à construire” et que “l’édiction d’un cadre juridique spécifique est souhaitable et nécessitera probablement, de façon générale ou sectorielle, une intervention du législateur”.
La CNIL reconnaissait aussi que “cette technologie est porteuse d’opportunités mais aussi, à moyen terme, et y compris dans les cas où son utilisation peut être légale et légitime, de risques nouveaux pour certains droits individuels, notamment le droit à la vie privée”.Ces craintes ont de nouveau émergé à l’approche des Jeux Olympiques et Paralympiques de Paris 2024 avec la loi n°2023-380 du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques (JOP). L’article 10 de cette loi prévoit, à titre expérimental, que les images collectées au moyen d’un système de vidéoprotection ou de caméras installées sur des aéronefs peuvent faire l’objet de traitements algorithmiques afin de détecter et signaler certains événements. Les dispositions contestées prévoient plus précisément que les images collectées dans les lieux accueillant certaines manifestations et à leurs abords ainsi que dans les véhicules et les emprises de transport public et sur les voies les desservant peuvent faire l’objet de traitements algorithmiques ayant pour objet de détecter en temps réel et signaler certains événements prédéterminés susceptibles de présenter ou de révéler des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes.
Cette loi a été déférée au Conseil constitutionnel (CC) par plusieurs députés, lui reprochant de méconnaître la liberté d’aller et de venir, le droit de manifester, la liberté d’opinion ainsi que le droit au respect de la vie privée. Au soutien de ces griefs, ils estimaient que le recours à des traitements algorithmiques n’était pas entouré de garanties suffisantes et que le champ d’application de cet article de loi était trop large.
Selon le Conseil constitutionnel, pour répondre à l’objectif de valeur constitutionnelle de prévention des atteintes à l’ordre public, le législateur peut autoriser le traitement algorithmique des images collectées au moyen d’un système de vidéoprotection ou de caméras installées sur des aéronefs. Si un tel traitement n’a ni pour objet ni pour effet de modifier les conditions dans lesquelles ces images sont collectées, il procède toutefois à une analyse systématique et automatisée de ces images de nature à augmenter considérablement le nombre et la précision des informations qui peuvent en être extraites. Dès lors, la mise en œuvre de tels systèmes de surveillance doit être assortie de garanties particulières de nature à sauvegarder le droit au respect de la vie privée.
Qu’en est-il de l’article 10 de la loi relative aux JOP ? Cette disposition de la loi est-elle assortie de garanties suffisantes au regard du droit au respect à la vie privée ? Il est permis de répondre positivement à cette question puisque cette disposition a passé les fourches caudines du CC, la décision n° 2023-850 DC du 17 mai 2023 en atteste s’il en était besoin.
Dans le cadre constitutionnel précédemment précisé, le Conseil constitutionnel relève, en premier lieu, qu’en adoptant les dispositions contestées, le législateur a poursuivi l’objectif de valeur constitutionnelle de prévention des atteintes à l’ordre public. En deuxième lieu, les dispositions contestées prévoient que les traitements algorithmiques des images ainsi collectées ne peuvent être mis en œuvre qu’afin d’assurer la sécurité de manifestations sportives, récréatives ou culturelles qui, par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes.
Elles réservent ainsi l’usage de tels traitements à des manifestations présentant des risques particuliers d’atteintes graves à l’ordre public et en excluent la mise en œuvre en cas de seuls risques d’atteintes aux biens. En troisième lieu, d’une part, l’emploi d’un traitement algorithmique ne peut être autorisé par le représentant de l’État dans le département ou, à Paris, par le préfet de police, que s’il est proportionné à la finalité poursuivie. À cet égard, la décision du préfet doit être motivée et préciser notamment le responsable du traitement, la manifestation concernée, les motifs de la mise en œuvre du traitement, le périmètre géographique concerné ainsi que la durée de l’autorisation. Elle peut faire l’objet de recours devant le juge administratif, notamment devant le juge des référés qui peut suspendre l’exécution de la mesure ou ordonner toutes mesures nécessaires à la sauvegarde d’une liberté fondamentale. D’autre part, la durée de l’autorisation, qui doit en tout état de cause être proportionnée à celle de la manifestation dont il s’agit d’assurer la sécurité, ne peut excéder un mois et ne peut être renouvelée que si les conditions de sa délivrance continuent d’être réunies.
Par une réserve d’interprétation, le Conseil constitutionnel juge, à ce titre, que si les dispositions contestées prévoient que le préfet ayant autorisé la mesure « peut suspendre l’autorisation ou y mettre fin à tout moment s’il constate que les conditions ayant justifié sa délivrance ne sont plus réunies », elles ne sauraient, sans méconnaître le droit au respect de la vie privée, être interprétées autrement que comme obligeant le préfet à mettre fin immédiatement à une autorisation dont les conditions ayant justifié la délivrance ne sont plus réunies. En outre, sauf lorsque les circonstances l’interdisent ou que cette information entrerait en contradiction avec les objectifs poursuivis, le public est préalablement informé, par tout moyen approprié, de l’emploi de traitements algorithmiques sur les images collectées. Par ailleurs, une information générale du public sur l’emploi de traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection et de caméras installées sur des aéronefs est organisée par le ministre de l’intérieur. En quatrième lieu, le législateur a prévu que les traitements algorithmiques mis en œuvre ne peuvent avoir pour objet que de détecter des événements prédéterminés susceptibles de présenter ou de révéler des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes. En dernier lieu, le législateur a veillé à ce que le développement, la mise en œuvre et les éventuelles évolutions des traitements algorithmiques demeurent en permanence sous le contrôle et la maîtrise de personnes humaines. Compte tenu de toutes ces différentes garanties et sous la réserve d’interprétation mentionnée plus haut, le Conseil constitutionnel juge que les dispositions contestées ne méconnaissent donc pas le droit au respect de la vie privée.
Un retour d’expérience après les Jeux Olympiques et Paralympiques permettra de dresser un premier bilan objectif sur la VSA et sur la suffisance des garanties apportées par la loi précitée.
En attendant, la CNIL et des associations continuent à veiller au déploiement de la VSA sur le territoire national. Testé pendant un an par la Commune d’Orléans, un dispositif de surveillance intelligente de la ville mêlant vidéosurveillance et détection des bruits anormaux a été retoqué par la CNIL fin septembre 2023, donnant ainsi raison à la Quadrature du Net (une association qui selon son site internet “promeut et défend les libertés fondamentales dans l’environnement numérique” et “lutte contre la censure et la surveillance, que celles-ci viennent des États ou des entreprises privées”). Une décision du Tribunal administratif d’Orléans est aussi attendue, dans les prochains mois, sur la question. La VSA sera donc bel et bien au cœur de l’actualité juridique en cette année 2024.