Twitter Facebook Accueil

Ligue des droits de l'Homme

Section du Pays d'Aix-en-Provence

Archives du tag : Vidéosurveillance

La Commission européenne doit interdire les pratiques de surveillance de masse biométrique 4 avril 2021

Lettre ouverte de 51 organisations, dont la LDH, adressée au commissaire européen Didier Reynders

Le 1er avril, une coalition de 51 organisations de défense des droits de l’Homme, des droits numériques et de la justice sociale a envoyé une lettre au commissaire européen à la justice, Didier Reynders, avant la proposition tant attendue de nouvelles lois européennes sur l’intelligence artificielle. La coalition demande au commissaire d’interdire les utilisations de la biométrie qui permettent une surveillance de masse ou d’autres utilisations dangereuses et nuisibles de l’IA.

Cher Commissaire Reynders,

cc : Vice-président exécutif Vestager

cc : Vice-président Jourová

cc : Commissaire Dalli

cc : Directeur général par intérim Saastamoinen, DG-JUST

cc : Cabinet de M. Reynders

Nous sollicitons votre soutien pour une interdiction spécifique des pratiques de surveillance biométrique de masse pour des raisons de droits fondamentaux

Nous sommes une coalition de XX organisations de défense des droits numériques, des droits de l’homme et de la justice sociale qui travaillent pour les droits fondamentaux des personnes à travers l’Europe. Nous vous écrivons pour vous demander de soutenir notre appel en faveur d’une protection accrue des droits fondamentaux dans la prochaine loi sur l’intelligence artificielle (IA), notamment en ce qui concerne la reconnaissance faciale et d’autres formes de surveillance biométrique de masse.

La Commission européenne s’est fixé la tâche importante de tracer une voie européenne pour l’IA qui place la confiance, l’excellence et la protection des droits fondamentaux au centre de ses préoccupations. Pour atteindre cet objectif, la prochaine proposition législative sur l’IA doit prendre la mesure nécessaire pour interdire les applications de l’IA qui violent irrémédiablement les droits fondamentaux, comme les technologies d’identification biométrique à distance qui permettent une surveillance de masse intrinsèquement non démocratique.

62 organisations de la société civile ont déjà lancé un appel en faveur de l’imposition de limites réglementaires aux applications de l’intelligence artificielle qui restreignent indûment les droits de l’homme, telles que les utilisations des technologies biométriques qui permettent une surveillance de masse, et cet appel a été renforcé par une lettre de 116 députés européens. Des recherches ont montré que les pratiques de surveillance de masse biométrique portent indubitablement atteinte aux droits consacrés par la Charte des droits fondamentaux de l’Union européenne – en particulier, les droits à la vie privée, à la protection des données, à l’égalité, à la non-discrimination, à la liberté d’expression et d’association, à une application régulière de la loi et à une bonne administration, à la présomption d’innocence, aux droits sociaux, aux droits des travailleurs, à la dignité, ainsi qu’aux principes fondamentaux de la justice, de la démocratie et de l’État de droit[1].

Nous souhaitons donc attirer votre attention sur trois points importants :

1.La société civile demande une interdiction spécifique des pratiques de surveillance de masse biométrique intrinsèquement inutiles et disproportionnées, car les interdictions générales existantes dans le cadre européen de protection des données ne s’avèrent pas suffisantes :

◦Le traitement des données biométriques est interdit par le règlement général sur la protection des données (RGPD). Pourtant, des exceptions, par exemple sur la base du consentement (article 9(2)(a)), sont invoquées par des acteurs publics et privés déployant des systèmes biométriques à des fins de surveillance de masse. En raison de ces utilisations abusives du consentement comme base juridique et du manque d’application qui en découle, nous sommes fermement convaincus que l’UE a besoin d’une interdiction légale spécifique qui s’appuie sur l’interdiction générale existante dans le RGPD[2].

◦ Le traitement des données biométriques à des fins répressives est limité aux “seuls cas où cela est strictement nécessaire” et proportionné et sur la base du droit de l’Union ou des États membres (directive relative à la protection des données à des fins répressives -UE – 2016/680 ), articles 10 et 10(a)). Cependant, cette exception – associée à l’application inadéquate du principe de nécessité et de proportionnalité – a conduit les entités des États membres à déployer certaines des utilisations les plus néfastes des technologies biométriques à des fins de surveillance de masse – celles des services répressifs – bien que ces utilisations soient en contradiction avec la Charte des droits fondamentaux[3].

◦ Cela signifie qu’en réalité, la surveillance biométrique de masse sévit dans toute l’UE, et que la société civile et les individus supportent la charge d’essayer de mettre fin aux utilisations nuisibles et discriminatoires des données biométriques à des fins de surveillance de masse par une combinaison d’enquêtes, de campagnes, de litiges et de plaintes auprès des autorités de protection des données (APD).

Au lieu de cela, nous demandons un instrument juridique spécifique de l’UE pour garantir que les utilisations biométriques de surveillance de masse ne soient jamais déployées en premier lieu ;

◦ Nous demandons donc l’interdiction de l’utilisation indiscriminée ou arbitrairement ciblée des applications biométriques dans les espaces publics ou accessibles au public (c’est-à-dire la surveillance biométrique de masse) sans exception, en raison du fait que les nombreux risques et préjudices impliqués rendent ces utilisations intrinsèquement inutiles et disproportionnées par rapport au but recherché. Lorsque les utilisations ne conduisent pas intrinsèquement à une atteinte indue aux droits fondamentaux, mais qu’elles limitent néanmoins ces derniers, elles doivent être strictement et manifestement nécessaires et proportionnées.

  1. La société civile demande des lignes rouges spécifiquement sur les utilisations et applications dangereuses de l’intelligence artificielle :

◦ Nous nous félicitons que la Commission ait choisi de se concentrer sur la manière dont les technologies de l’IA sont utilisées. Par exemple, l’utilisation de la reconnaissance faciale sans discernement ou arbitrairement ciblée dans les espaces publics est une application de l’IA qui, selon nos recherches, restreint indûment les droits fondamentaux ;

◦ Pour que l’UE devienne un leader dans une approche de confiance du développement et du déploiement de l’IA (c’est-à-dire une utilisation de l’IA conforme à la protection des droits fondamentaux), il faudra prendre des décisions sur les applications qui ont leur place dans une société attachée aux droits fondamentaux, et celles qui n’en ont pas. Alors que d’autres pays peuvent ne prêter aucune attention à la protection des droits fondamentaux dans leur quête d’innovation à tout prix, l’UE peut et doit montrer l’exemple en veillant à ce que l’IA innovante développée et déployée à l’intérieur de ses frontières le soit toujours dans le respect des droits fondamentaux ;

◦ Plus de 43 000 citoyens de l’UE ont déjà officiellement ajouté leur voix à l’appel de la société civile en faveur d’une interdiction des pratiques biométriques de surveillance de masse par le biais de la nouvelle initiative citoyenne européenne gérée par la campagne Reclaim Your Face.

Nous pensons qu’il est vital que leurs opinions, exprimées par le biais de cette puissante initiative démocratique, soient prises au sérieux dans la prochaine proposition de réglementation. Ceci est particulièrement important étant donné l’ambition affichée par la Commission dans le livre blanc sur l’IA d’un large débat public.

  1. L’innovation en matière d’IA en Europe peut prospérer au niveau mondial en respectant les droits fondamentaux :

◦ Avec le RGPD, l’UE a prouvé que notre avantage dans un monde numérisé peut consister à faire en sorte que l’innovation respecte toujours les droits fondamentaux des personnes, et que l’UE peut établir des normes qui protègent les droits des personnes tout en maintenant la compétitivité des marchés.

◦ Nous avons appris que, tant à l’intérieur qu’à l’extérieur de l’UE, le développement et le déploiement sans entrave des technologies biométriques ont de graves conséquences pour les droits humains des personnes et des groupes marginalisés, qui sont souvent soumis de manière disproportionnée à des déploiements discriminatoires de ces technologies tout en étant gravement sous-représentés dans le processus décisionnel de l’UE ;

◦ La surveillance biométrique de masse de la population ouïgoure par la Chine et la surveillance policière disproportionnée des communautés noires par les États-Unis au moyen d’une reconnaissance faciale intrinsèquement discriminatoire ne sont pas des modèles à suivre – et les villes américaines prennent de plus en plus de mesures pour interdire ces utilisations en conséquence. Le fait que l’UE fonde son modèle réglementaire sur la concurrence avec ces pratiques compromettrait les principes et valeurs mêmes sur lesquels l’UE est construite. Nous apprécions que la Commission européenne ait jusqu’à présent accepté le principe d’une interdiction des pratiques de surveillance de masse biométrique.

Afin de protéger davantage les droits fondamentaux en Europe, les signataires de cette lettre appellent donc à :

  1. Que la proposition législative sur l’intelligence artificielle inclue une interdiction explicite de l’utilisation indiscriminée ou arbitrairement ciblée des données biométriques dans les espaces publics ou accessibles au public, ce qui peut conduire à une surveillance de masse pour des raisons de droits fondamentaux ;
  2. Des restrictions légales ou des lignes rouges législatives sur toutes les utilisations qui contreviennent aux droits fondamentaux ;
  3. L’inclusion explicite des communautés marginalisées et affectées dans le développement de la législation et de la politique de l’UE en matière d’IA. Pour une législation sur l’IA véritablement centrée sur l’humain, nous réitérons qu’il doit y avoir des utilisations que l’UE n’autorise pas dans une société démocratique. Nous sommes impatients de travailler avec vous pour faire de l’interdiction de la surveillance biométrique de masse nuisible et violant les droits dans l’UE une véritable réalité.

Cordialement,

Signataires :

•Access Now, International•AlgorithmWatch, Germany•App Drivers and Couriers Union (ADCU), UK•ARTICLE 19, International•Associazione Luca Coscioni, Italy•Big Brother Watch, UK•Bits of Freedom (BoF), the Netherlands•Certi Diritti, Italy•Civil Liberties Union for Europe (Liberties), International•Chaos Computer Club (CCC), Germany•Chaos Computer Club Lëtzebuerg, Luxembourg•Defesa dos Direitos Digitais (D3), Portugal•Dataskydd.net, Sweden•Datenschutzraum e.V., Germany•defend digital me, UK•Digital Rights Ireland, Ireland•Digitalcourage, Germany•Digitale Geselleschaft, Germany•Digitale Gesellschaft CH, Switzerland•Državljan D, Slovenia•Electronic Frontier Finland (Effi), Finland •Elektroniks Forpost Norge (EFN), Norway•Electronic Privacy Information Center (EPIC), International•epicenter.works, Austria•EUMANS, International•European Center for Not-for-profit Law (ECNL), International•European Digital Rights (EDRi), International•European Digital Society (EDS), International•European Evangelical Alliance (EEA), International•European Youth Forum, International•FITUG e.V., Germany•Frënn vun der Ënn, Luxembourg•Hermes Center, Italy•Homo Digitalis, Greece•Human Rights League Slovakia, Slovakia•International Committee on the Rights of Sex Workers in Europe (ICRSE), International•IT Political Association of Denmark (IT-Pol), Denmark•Iuridicum Remedium (IuRe), Czechia•La Ligue des droits de l’Homme (LDH), France•La Quadrature du Net (LQDN), France•LOAD e.V., Germany•Panoptykon Foundation, Poland•PICUM, International•Pravno-informacijski center nevladnih organizacij (PIC), Slovenia•Privacy International, International•Privacy Network, Italy•Science for Democracy, International•Sex Workers’ Rights Advocacy Network (SWAN), International•Statewatch, UK•StraLi for Strategic Litigation, Italy•Vrijschift.org, the Netherlands

Individuals:

•Douwe Korff, Emeritus Professor of International Law•Barbora Messova, lawyer and director of Human Rights League Slovakia•Virginia Fiume, coordinator EUM

Le 1er avril 2021

 

[1]      ‘Ban Biometric Mass Surveillance’, EDRi, May 2020: https://edri.org/wp-content/uploads/2020/05/Paper-Ban-Biometric-Mass-Surveillance.pdf

[2]      Pour illustrer davantage le problème des exemptions prévues par le cadre actuel, nous citons l’exemple de l’Italie, où la société civile a réussi à contester la légalité d’une utilisation de la surveillance biométrique de masse à Côme, ce qui a conduit à sa mise hors service, avant que la même utilisation ne soit ensuite déployée à Turin.

[3]      C’est le cas au Danemark, où l’État a adopté une législation nationale qui a conduit à la surveillance biométrique de masse “légale” des personnes assistant aux matchs de football.

Télécharger la lettre ouverte en anglais.

 


Source: La Commission européenne doit interdire les pratiques de surveillance de masse biométrique

Pour un avenir sans surveillance biométrique de masse : signez la pétition européenne 22 février 2021

Le texte de l’initiative validé par la Commission européenne et ses annexes disponibles ici en français et reproduit ci-dessous :

« Initiative de la société civile en vue d’une interdiction des pratiques de surveillance biométrique de masse »

Nous exhortons la Commission européenne à réglementer strictement l’utilisation des technologies biométriques afin d’éviter toute atteinte injustifiée aux droits fondamentaux. Nous demandons en particulier à la Commission d’interdire, en droit et en pratique, les utilisations indifférenciées ou arbitrairement ciblées de la biométrie pouvant conduire à une surveillance de masse illégale. Ces systèmes intrusifs ne peuvent être développés, mis en place (même à titre expérimental) ou utilisés par des entités publiques ou privées dans la mesure où ils sont susceptibles d’entraîner une atteinte inutile ou disproportionnée aux droits fondamentaux des personnes.

Il apparaît que certaines utilisations de la surveillance biométrique de masse dans les États membres et par des agences de l’UE ont donné lieu à des violations de la législation de l’UE en matière de protection des données et ont indûment restreint les droits des personnes, y compris le droit au respect de la vie privée, le droit à la liberté d’expression, le droit de manifester et le droit à la non-discrimination. Le recours généralisé à la surveillance biométrique, au profilage et à la prédiction constitue une menace pour l’état de droit et pour nos libertés les plus fondamentales.

Par cette ICE, nous prions donc instamment la Commission de proposer un acte juridique qui s’appuiera sur les interdictions générales prévues par le RGPD et la directive en matière de protection des données dans le domaine répressif et respectera pleinement lesdites interdictions, pour faire en sorte que le droit de l’Union interdise explicitement et spécifiquement la surveillance biométrique de masse.

Source: Pour un avenir sans surveillance biométrique de masse : signez la pétition européenne

Les caméras thermiques de Lisses « débranchées » par le Conseil d’Etat 2 juillet 2020

Communiqué LDH

Depuis le début de la pandémie, l’état d’urgence sanitaire est le prétexte utilisé par des maires sécuritaires pour recourir à des dispositifs abusifs de surveillance tels que les drones et caméras perfectionnées. Ces élus instrumentalisent la peur et ouvrent le risque d’une surveillance généralisée et durable de la population.

Le maire de Lisses, s’inscrivant dans cette dérive, avait décidé d’installer une caméra thermique à l’entrée du pôle administratif de la ville pour vérifier la température des agents. Après avoir déclaré qu’il irait lui-même prendre la température de ceux qui refuseraient de s’y soumettre, sous la pression du contentieux ouvert, l’édile a finalement opéré un revirement en rendant le dispositif facultatif. Mais il a également installé des caméras thermiques à l’entrée des écoles.

La Ligue des droits de l’Homme (LDH), pointant une atteinte grave à la protection des données personnelles en particulier médicales et dénonçant un dispositif de surcroit inutile, a saisi une première fois le tribunal administratif de Versailles et, suite au rejet de ce dernier, a fait appel devant le Conseil d’Etat pour en demander le retrait.

Si le Conseil d’Etat a considéré que, pour la caméra installée dans le pôle administratif, la prise de température sans enregistrement ni manipulation des résultats était tolérable, il censure le dispositif mis en place dans les écoles de la ville prenant la température des élèves, des enseignants et du personnel, étant pour eux obligatoire et devant quitter l’établissement en cas de résultat anormal.

Comme la LDH le soulignait, la collecte de ces données médicales viole le règlement général sur la protection des données (RGPD), constituant un traitement automatisé, ceci sans texte justifiant l’utilisation de ces caméras pour des raisons de santé publique et sans preuve du consentement des personnes devant s’y soumettre. Ainsi, le dispositif porte une atteinte illégale au droit au respect de la vie privée et familiale comprenant le droit à la protection des données personnelles et de la liberté d’aller et venir. 

La LDH se félicite de cette décision qui met un frein aux dérives sécuritaires des élus et rappelle l’obligation du respect des libertés individuelles de chacune et de chacun.

Paris, le 30 juin 2020

Télécharger le communiqué en format PDF


Source: Les caméras thermiques de Lisses « débranchées » par le Conseil d’Etat

Drones : la police interdite de vols 25 mai 2020

Communiqué LDH

Par une ordonnance en date du 18 mai 2020, le Conseil d’Etat a donné raison à la Ligue des droits de l’Homme (LDH) et à la Quadrature du Net qui contestaient l’utilisation de drones par la préfecture de police de Paris, en dehors de tout cadre légal spécifique à l’utilisation des images filmées.

En effet, contrairement à la vidéosurveillance dont les dispositifs doivent obéir à certaines contraintes (emplacement et orientation des caméras, paramétrages interdisant de capter des images relatives aux entrées d’immeuble, à l’intérieur des bâtiments et des espaces privés…), les images filmées par des drones captent nécessairement des images relatives à ces espaces protégés, portant ainsi atteinte aux libertés fondamentales que sont le droit à la vie privée et le droit à la protection des données personnelles.

Considérant que le fait de filmer et transmettre des images pouvant être identifiantes constituait un traitement de données à caractère personnel, soumis aux dispositions de la directive police-justice, le Conseil d’Etat a jugé qu’un cadre légal s’imposait pour ce traitement. Ce dernier a donc imposé l’arrêt de l’utilisation de drones pour surveiller le respect des règles de sécurité applicables à la période de l’état d’urgence sanitaire.

C’est sans doute cette décision qui a incité la Commission nationale de l’informatique et des libertés (Cnil) à faire savoir qu’elle enquêtait enfin sur le sujet, et ce depuis le 23 avril. Elle déclare qu’elle « prendra position sur cette question à l’issue des procédures de contrôle en cours ». Elle sera néanmoins tenue de prendre en compte la décision du Conseil d’Etat pour demeurer dans son rôle d’autorité indépendante, garante de la protection de la vie privée, et ainsi défendre les libertés publiques.

Paris, le 20 mai 2020

Télécharger le communiqué au format PDF

Source: Drones : la police interdite de vols

Le surveillant général Muselier perd la face 5 mars 2020

Communiqué LDH

Par une délibération du 14 décembre 2018, le conseil régional Sud (ex Provence-Alpes-Côte d’Azur) a autorisé une expérimentation de reconnaissance faciale dans deux lycées de Marseille et Nice. Cette expérimentation devait être entièrement financée par l’entreprise américaine Cisco, qui profite ici de la politique sécuritaire des élus locaux pour tester ses technologies de surveillance. L’objectif affiché par le conseil régional, et en particulier par son président Renaud Muselier, était clair : étendre, au terme de cette expérimentation, ce dispositif à l’ensemble des lycées de la région.

Le 19 février 2019, la Ligue des droits de l’Homme (LDH) avec la Quadrature du Net, la CGT Educ’Action des Alpes-Maritimes et la Fédération des conseils de parents d’élèves (FCPE) des écoles publiques des Alpes-Maritimes ont déposé un recours devant le tribunal administratif de Marseille pour demander l’annulation de la délibération du conseil régional, en s’appuyant essentiellement sur le règlement général sur la protection des données personnelles (RGPD) : absence d’analyse d’impact en amont du processus, absence de cadre juridique à la reconnaissance faciale, traitement des données biométriques manifestement disproportionné par rapport à l’objectif poursuivi.

En octobre 2019, la Commission nationale de l’informatique et des libertés (Cnil) avait émis un avis très critique insistant sur le fait que « les traitements de reconnaissance faciale sont des dispositifs, de nature biométrique, particulièrement intrusifs qui présentent des risques importants d’atteinte à la vie privée et aux libertés individuelles des personnes concernées ».

Par un jugement rendu ce 27 février, le tribunal administratif a reconnu la pertinence des requêtes et a décidé d’annuler cette délibération.

La juridiction administrative a retenu l’incompétence du conseil régional pour mettre en place une telle expérimentation dès lors que seuls les chefs d’établissements scolaires sont compétents en matière de missions d’encadrement et de surveillance des élèves.

Le tribunal a jugé aussi que la région, en se contentant de recueillir le consentement des lycéennes et lycéens ou de leurs représentants légaux par la signature d’un simple formulaire, ne donnait pas les garanties suffisantes pour un consentement libre, spécifique, univoque et éclairé à la collecte de leurs données personnelles (qui plus est des données biométriques) et que la région n’établit pas que les finalités poursuivies (fluidifier et sécuriser les contrôles à l’entrée des lycées) n’auraient pas pu être atteintes par des mesures moins excessives.

La LDH salue cette décision qui vient bloquer une stratégie politique de surveillance généralisée des lycéennes et lycéens par des outils toujours plus disproportionnés au mépris des libertés publiques.

Paris, le 27 février 2020

Télécharger le communiqué en format PDF

Source: Le surveillant général Muselier perd la face

Safe City à Marseille : premier recours contre la vidéosurveillance automatisée de l’espace public 27 janvier 2020

Communiqué commun de la Ligue des droits de l’Homme et de La Quadrature du Net

Nous venons de déposer, avec la Ligue des droits de l’Homme, un recours en référé devant le tribunal administratif de Marseille pour lui demander d’annuler l’installation dans la ville d’un dispositif de vidéosurveillance automatisée (appelé « vidéoprotection intelligente »). Ce dispositif, décidé par la ville de Marseille, prévoit la mise en place de nouvelles technologies de surveillance dans l’espace public qui, pour l’essentiel, relèvent d’une surveillance biométrique généralisée : détection de comportements anormaux, suivi de silhouettes ou d’individus, captations sonores…

D’autres dispositifs similaires sont déjà installés en France ou sont en train de l’être, le tout dans l’opacité la plus complète. Leurs promoteurs considèrent que le cadre juridique de la vidéosurveillance leur suffit. Au même titre que la reconnaissance faciale, qui n’est qu’une des nombreuses couches applicatives de la vidéosurveillance automatisée, ces dispositifs participent pourtant à la mise sous surveillance totale de nos villes.

La Technopolice continue de se déployer en France, et la vidéosurveillance automatisée (ou « vidéoprotection intelligente » selon ses promoteurs) [1] est une de ses principales émanations. Fondée sur l’utilisation d’algorithmes déployés sur un système de vidéosurveillance, ces dispositifs promettent de détecter automatiquement dans l’espace public des objets abandonnés, des mouvements de foule, des « comportements anormaux » (gestes brusques, maraudages, agression…), de faciliter le suivi d’individus (par la silhouette, la démarche…), ou de faire des recherches par « filtres » sur des images enregistrées (à partir de photos d’un individu qu’il s’agirait de retrouver dans les milliers de flux vidéos afin de suivre son parcours). Après la multiplication des caméras de vidéosurveillance sur le territoire français, plusieurs entreprises cherchent à vendre aux collectivités ce système de « vidéo intelligente ». Comme l’expliquent les industriels, l’intérêt consiste à « pallier le manque récurrent de personnel disponible pour visionner les images de vidéoprotection ainsi que la capacité de concentration de ces agents », de « de limiter leur travail à une simple confirmation d’alertes ». Il est même avancé que «  la vidéoprotection ne saurait être efficace sans un système auto-intelligent permettant de trier et filtrer les images à analyser, et ce à une grande échelle ». Depuis plus de 10 ans, la vidéosurveillance a déferlé sans but sur nos villes : il semble temps de la rendre opérationnelle à travers l’automatisation.

De tels dispositifs mettent gravement en danger nos droits et libertés. Ils accroissent considérablement la capacité des services de police à nous identifier et à nous surveiller en permanence dans l’espace public. Tout comme la reconnaissance faciale, ils entraînent un contrôle invisible et indolore de la population, considérée comme suspecte de facto. Construits dans l’opacité la plus complète, il est par ailleurs impossible de comprendre ce qu’ils détectent avec exactitude : que veut dire Thalès quand il parle de « comportement inhabituel » et de suivi de « personnes suspectes » ? Que sous-entend l’entreprise Huawei quand, dans la description de son projet à Valenciennes, elle laisse inachevée sa liste des cas d’alerte relevés par la machine (« traitement intelligent de l’image avec détection des mouvements de foules, objets abandonnés, situations inhabituelles…  ») ? Enfin, le suivi de « personnes suspectes » comprend-t-il la reconnaissance de démarches, donnée extrêmement individualisante et qui est bien plus difficile à dissimuler qu’un visage ?

Des systèmes de vidéosurveillance automatisée sont pourtant déjà en place en France, à Valenciennes donc, mais aussi à Nice, à Toulouse, à La Défense et bientôt dans les Yvelines. D’autres projets sont sûrement en cours, mais les informations sont difficiles à trouver. Leurs promoteurs considèrent en effet que, dans la plupart des cas, ces nouveaux ajouts à la vidéosurveillance rentrent dans le cadre de la « vidéosurveillance classique » et n’ont pas à être rendus publics.

Marseille, ville-test

Dans le cadre de la campagne Technopolice, et à travers des demandes d’accès aux documents administratifs, nous avons appris qu’en 2015, la mairie de Marseille avait lancé un appel d’offres pour installer un de ces systèmes de vidéosurveillance automatisée dans sa ville et qu’en novembre 2018, ce marché avait été attribué à une entreprise. Croisée au salon Milipol, l’adjointe au maire de Marseille en charge de la sécurité, Caroline Pozmentier, nous a confirmé qu’il s’agissait du groupe SNEF, un intégrateur de solutions de vidéosurveillance basé dans la cité phocéenne. Nous avons fini par avoir communication de certains documents liés à ce marché, dont le « Programme Fonctionnel Technique final » qui détaille précisément ce que la mairie entend mettre en place.

Dans ce document, il est ainsi indiqué que « les opérateurs ne peuvent pas visualiser l’ensemble des flux » et qu’il « est donc nécessaire que la solution logicielle permette d’effectuer de façon autonome cette visualisation ». Parmi les fonctionnalités envisagées, se trouve le « traitement automatique de donnés (…) afin de détecter des anomalies/incidents/faits remarquables », la « détection d’anomalies non identifiables par un opérateur » et la « gestion de l’espace public, analyse des piétons/véhicules ainsi que des comportements ». On y retrouve les mêmes cas d’usage que dans d’autres systèmes : détection d’ « objets abandonnés », de « TAG » (graffitis) et de « vol/disparition/destruction de mobilier urbain ». Il est aussi précisé que l’outil doit aider dans le cadre d’affaires judiciaires et permettre de « faire des recherches à l’aide de filtres », l’un de ces filtres étant « individu (description, avatar, photo) ». Une dernière partie intitulée « Fourniture et intégration de fonctionnalités complémentaires » indique que la mairie se réserve la possibilité d’ajouter de nouvelles fonctionnalités dont la « détection sonore » (explosion, coup de feu…), la « reconstitution d’évènements » (comme le parcours d’un individu) ou la détection de « comportements anormaux » (bagarre, maraudage, agression).

Le mois dernier, dans un article de Télérama, le journaliste Olivier Tesquet révélait que le dispositif devait être installé à Marseille « d’ici à la fin de l’année 2019 » et que « la Cnil n’a jamais entendu parler de ce projet ».

L’étendue de ce projet, la description extensive de ses fonctionnalités et sa récente mise en place nous ont poussé à agir le plus vite possible.

Un recours contre la vidéosurveillance automatisée, premier du genre en France

Dans notre recours déposé lundi devant le tribunal administratif de Marseille, nous reprenons certains des arguments déjà développés dans notre recours contre les portiques de reconnaissance faciale dans deux lycées de la région PACA (un projet depuis entravé par la CNIL). Nous soulignons ainsi que la décision de la mairie de mettre en place ce dispositif n’a été précédée d’aucune analyse d’impact ou de consultation de la CNIL, contrairement à ce qui est prévu dans la directive dite « police-justice » qui encadre les pouvoirs de surveillance des autorités publiques dans l’Union européenne. Nous soulignons également que la vidéosurveillance automatisé n’est encadrée par aucun texte juridique alors qu’il s’agit d’un type d’ingérence dans la vie privée tout-à-fait nouveau, et bien différent de la vidéosurveillance « classique » : l’automatisation transforme la nature de l’ingérence induite par la vidéosurveillance. Les nouveaux équipements déployés à Marseille disposent en outre de capteurs sonores (ces mêmes capteurs sonores que dénonçait la Cnil dans le projet de Saint-Etienne). De manière générale, le système entier conduit à passer d’une surveillance « passive » à une surveillance « active »). Comme pour les lycées, nous avons aussi attaqué le caractère manifestement excessif et non justifié de la collecte de données.

Le recours démontre par ailleurs que la grande majorité du traitement de données qui est fait dans ce dispositif est un traitement de données biométriques, donc soumis aux dispositions spécifiques de la directive police-justice sur les données sensibles (dont l’utilisation est beaucoup moins permissive que pour les autres types de données personnelles). En effet, les données biométriques sont définies comme des données personnelles « résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique ». Or, comme l’a souligné le Comité européen de protection des données, une « identification unique » n’implique pas nécessairement de révéler l’état civil d’une personne mais, plus largement, de pouvoir individualiser une personne au sein d’un groupe, ce qui est bien le cas en espèce. Or, une fois la qualité de donnée biométrique établie, la directive police-justice exige une « nécessité absolue » pour les analyser. Ce qui n’est clairement pas le cas ici : d’autres moyens, humains, existent déjà pour analyser les images et mener les enquêtes.

Enfin, dans ce recours, nous détaillons pourquoi, en confiant à la SNEF et à ses algorithmes, l’identification, la catégorisation et la détection d’incidents, d’anomalies et de comportements suspects sur la voie publique (certains explicitement « non identifiables par un opérateur »), et en faisant de son outil une véritable « aide à la décision » pour la police municipale, la mairie a délégué à une entreprise privée une mission de surveillance généralisée de la voie publique. Ce qui, selon le Conseil Constitutionnel est contraire à « l’exigence, résultant de l’article 12 de la Déclaration des droits de l’homme et du citoyen de 1789, selon laquelle la garantie des droits est assurée par une « force publique » ».

Encore une fois : d’autres dispositifs semblables sont actuellement déployés en France ou s’apprêtent à l’être : Nice, Toulouse, Valenciennes, La Défense… Nous vous invitons à réutiliser nos arguments pour multiplier les contentieux et tenir en échec l’expansion de la surveillance algorithmique de nos villes et de nos vies.

Paris, le 20 janvier 2020

[1] Si les termes peuvent paraître proches, il est important de refuser de considérer un tel système comme « intelligent »

Source: Safe City à Marseille : premier recours contre la vidéosurveillance automatisée de l’espace public

Interdisez la reconnaissance faciale sécuritaire 19 décembre 2019

Lettre commune de 80 organisations, dont l’Observatoire des libertés et du numérique dont la LDH est membre

Nous, organisations, collectifs, entreprises, associations et syndicats, demandons au Parlement et au gouvernement français d’interdire tout usage sécuritaire de dispositifs de reconnaissance faciale actuels ou futurs.

Nous constatons que de telles technologies sont aujourd’hui déjà largement déployées en France. Outre les portiques « Parafe » présents dans plusieurs aéroports et gares, le fichier de traitement des antécédents judiciaires permet depuis 2012 à la police et à la gendarmerie de recourir à la reconnaissance faciale à partir d’images prises dans la rue par des caméras, ou encore obtenues sur les médias sociaux. D’autres expérimentations ont déjà été menées ou sont programmées.

La multiplicité des dispositifs déjà existants, installés sans aucun véritable encadrement juridique, transparence ou réel débat public, ne satisfait pourtant pas nombre d’acteurs publics et industriels. En se fondant sur le fantasme d’un développement inéluctable de la technologie et sur des arguments purement sécuritaires et économiques, ils souhaitent accélérer et faciliter le déploiement de ces dispositifs, au détriment des conséquences pour nos libertés et notre modèle de société.

La reconnaissance faciale est une technique exceptionnellement invasive et déshumanisante qui permet, à plus ou moins court terme, la surveillance permanente de l’espace public. Elle fait de nous une société de suspect-es. Elle attribue au visage non plus une valeur de personnalité mais une fonction de traceur constant, le réduisant à un objet technique. Elle permet un contrôle invisible. Elle impose une identification permanente et généralisée. Elle abolit l’anonymat.

Aucun argument ne peut justifier le déploiement d’une telle technologie : au-delà de quelques agréments anecdotiques (utiliser son visage plutôt que des mots de passe pour s’authentifier en ligne ou activer son téléphone…), ses seules promesses effectives sont de conférer à l’État un pouvoir de contrôle total sur la population, dont il ne pourra qu’être tenté d’abuser contre ses opposant-es politiques et certaines populations. Puisque l’utilisation de la reconnaissance faciale à des fins sécuritaires est par essence disproportionnée, il est vain d’en confier l’évaluation au cas par cas à une autorité de contrôle qui échouerait en pratique à suivre chacune de ses nombreuses nouvelles applications.

C’est pourquoi nous vous demandons d’interdire tout usage sécuritaire qui pourrait en être fait. De telles interdictions ont déjà été décidées dans plusieurs villes des États-Unis. La France et l’Union européenne doivent aller encore plus loin et, dans la lignée du règlement général sur la protection des données personnelles (RGPD), construire un modèle européen respectueux des libertés.

Il conviendra par ailleurs de renforcer les exigences de protection des données à caractère personnel et de limiter les autres usages de la reconnaissance faciale : qu’il s’agisse d’authentification ou d’identification privée, l’ensemble de ces dispositifs ne sont pas assez protecteurs des atteintes à la vie privée ; ils préparent, et banalisent une société de surveillance de masse.

Nous appelons à l’interdiction de tout usage sécuritaire de la reconnaissance faciale.

Paris, le 19 décembre 2019

Télécharger la lettre en format PDF

 

Liste des premiers signataires :

Source: Interdisez la reconnaissance faciale sécuritaire

Nice : la Cnil censure le dispositif « reporty » 28 mars 2018

Communiqué LDH

La Ligue des droits de l’Homme se réjouit de la suspension de la mise en œuvre de l’application « Reporty », après la décision de la Cnil du 15 mars 2018 qui a sanctionné le caractère manifestement illégal de ce dispositif. Celui-ci permettait de faire de chaque détenteur d’un smartphone, un supplétif potentiel pour alimenter le centre de visionnage de la police municipale de Nice, ville déjà ultra-surveillée (vingt-sept caméras au km²).

La Cnil a d’une part souligné le caractère disproportionné du dispositif avec ses risques d’atteintes à la vie privée, et, d’autre part, mis en lumière les faiblesses des garanties sur ses mésusages.

Cette application, qui avait été lancée à grand renfort de communication par le maire de Nice, Christian Estrosi, sous la forme d’une expérimentation engageant deux mille volontaires du 10 janvier au 10 mars 2018, avait été immédiatement dénoncée par de nombreuses associations locales et nationales, dont la LDH, sur la dérive que constitue un tel dispositif de délation généralisée, avec les dangers et les déviances qu’il porte.

Confortée par cette décision de la Cnil, la LDH persiste à demander à la mairie de Nice l’abandon définitif de cette mesure attentatoire aux libertés, et restera vigilante pour prévenir toute tentative de légalisation de tels dispositifs.

Paris, le 26 mars 2018

Télécharger le communiqué LDH

Lire également le communiqué de la section LDH de Nice

Source: Nice : la Cnil censure le dispositif « reporty »