sousveillance

Videosurveillance

Une chaîne de pharmacies utilise un dispositif de reconnaissance faciale à l'insu de ses clients.

Dans une enquête publiée par Reuters, on découvre que la chaîne de pharmacie Rite Aid a recours à un système de reconnaissance faciale depuis 2012. Evidemment, le dispositif est déployé sans que le consentement des clients ne soit recueilli. De toute façon, ils ne pouvaient pas s'y opposer ou donner leur consentement car ils n'étaient pas informés de la présence de ce dispositif de surveillance.

Depuis quelques années, un débat existe autour de la reconnaissance faciale et des biais introduits dans les algorithmes qui font tourner ces intelligences artificielles. Les études qui mettent en avant l'existence de ces biais démontrent que la reconnaissance faciale à tendance à discriminer certaines populations en particulier les noirs américains. L'enquête de Reuters confirme à nouveau que la reconnaissance faciale est une technologie qui porte préjudice aux personnes racisées. En effet, la chaîne de pharmacies a déployé son dispositif en priorité dans des quartiers populaires à majorité noire-américaine ou latino-américaine pour lutter contre le vol et les violences :

"Dans les zones où les personnes de couleur, y compris les résidents noirs ou latinos, constituent le groupe ethnique le plus important, Reuters a constaté que les magasins étaient trois fois plus susceptibles d'être équipé de cette technologie", peut-on lire dans l'enquête. De son côté, la chaîne américaine explique que le choix des emplacements reposait sur des données liées à l'historique des vols en magasin ainsi que sur des statistiques criminelles locales et nationales."

Le dispositif relève presque du pré-crime. Les caméras procèdent à une comparaison des images de clients présents dans le magasin et des images de clients ayant déjà commis un délit au sein des pharmacies. Si elles repèrent un individu, une notification est envoyée aux agents de sécurité pour demander aux clients suspectés de commettre un nouveau délit de quitter les lieux.

"The point of the whole operation, the report states, was to alert security personnel of someone entering the store that had exhibited past criminal activity, so that they may be asked to leave to help prevent theft or crime. But Reuters’ interviews with former employees and managers illustrate how the system was used to racially profile customers."

Dans ce contexte, le dispositif de surveillance préjuge des actions des individus en s'appuyant sur des actes passés et les catalogue définitivement comme criminels en faisant peu de cas du principe de présomption d'innocence. En outre, si une personne a effectivement commis un délit par le passé et qu'elle s'est acquittée de sa dette auprès de la société par l'intermédiaire d'un jugement, cette dernière sera éternellement comptable de ses actes. On assiste donc à l'élaboration d'une criminalisation ethnique qui stigmatise une partie de la population.

#Videosurveillance #ReconnaissanceFaciale


Source : L'Usine Digitale / The Verge

La police de San Francisco utilise un réseau de caméras privées pour surveiller des manifestants

L'EFF a mis la main sur des mails qui prouvent que la police de San Franciso (SFPD) a noué un partenariat avec un tiers pour accéder à distance à son réseau de caméras afin de surveiller des individus ayant participé aux manifestations en soutien au mouvement Black Lives Matter.

But a report from the Electronic Frontier Foundation, a digital privacy advocacy group, shows that the San Francisco Police Department gained remote access to this private camera network for days at a time during protests in late May and early June.

Bien que problématique, le fait que la police utilise des outils de surveillance de masse pour identifier un ou quelques individus dans des manifestations n'a rien de nouveau. Cependant, au regard du contexte législatif de San Francisco, les méthodes de la police locale ont de quoi interroger. En effet, depuis une modification récente de sa législation, San Francisco a interdit à la police de pouvoir surveiller en direct les individus. Les forces de l'ordre doivent respecter une procédure spécifique pour obtenir un accès à des dispositifs de surveillance appartenant à un tiers. Or en l'espèce, la SFPD est allée frapper directement à la porte de l'entreprise qui gère le réseau de caméras.

'The police can’t monitor it live, it’s actually against the law in San Francisco,” Larsen told ABC7. “They have to make a request just like anybody else.”

Le recours à ce genre de méthodes pour tenter d'identifier un individu ou un groupe de personnes pose réellement la question de la violation de la vie privée et des libertés fondamentales des personnes qui exercent leur droit à manifester. A travers ces enregistrements vidéos, ces derniers peuvent être identifiés et la participation à un mouvement de contestation peut leur être reproché. La présence de dispositifs de surveillance et d'identification peut dissuader des personnes à participer à des manifestations par peur de représailles.

#Videosurveillance #BlackLivesMatter


Source : San Francisco Public Press

RATP : souriez, vous êtes surveillés !

Médiapart a publié un article dans lequel le média expose au grand jour les projets de vidéosurveillance et d'intelligence artificielle portés par la RATP. Dans un souci de transparence, le journal a décidé de saisir la CADA pour faire respecter les droits des usagers et dénoncer les projets opaques de la régie des transports.

La RATP avait déjà été épinglée pour des expérimentations de reconnaissance faciale dont plusieurs ont avorté. La dernière en date est issue d'un partenariat avec l'entreprise Datkalab (connue pour son expérimentation de caméras déployées à Nice pour repérer les passants qui ne portent pas de masque).

Plusieurs entreprises ont déjà approché la RATP qui est un terrain de jeu privilégié pour tester les algorithmes de reconnaissance faciale. En effet, la fréquentation importante des stations comme Châtelet-les-Halles où 750 000 personnes transitent par jour ainsi que le nombre de caméras (50 000) représentent un test idéal pour mesurer l'efficacité de la reconnaissance faciale. A la lecture de l'article de Médiapart, on apprend également que la RATP a son propre “lab” dédié à l'usage de la vidéosurveillance.

En 2020, la RATP franchit un nouveau cap en créant son « Lab’IA Vidéo » au sein de la station Châtelet-Les Halles, la plus fréquentée du réseau avec 750 000 visiteurs journaliers. Avec ce projet, la régie entend « mettre son vaste réseau de caméras de vidéoprotection au service des voyageurs » et poursuivre une dynamique de collaboration avec des entreprises du secteur.

Comme à chaque fois, l'argument invoqué, pour justifier le déploiement de la reconnaissance faciale ou de ses expérimentations, est la sécurité des voyageurs. Ou du moins le sentiment de sécurité...

Au passage, l’objectif du projet tel que défini par le service communication s’avère bien flou : « Améliorer le sentiment de sécurité pour nos voyageurs

#Videosurveillance


Source : Mediapart