sousveillance

ReconnaissanceFaciale

La justice britannique s'oppose à l'utilisation de la reconnaissance faciale

La cour d'appel de Londres vient de rendre une décision contre l'utilisation de la reconnaissance faciale par la police au Pays de Galles qu'elle juge pas suffisamment encadrée.

Après avoir été débouté plusieurs fois, le plaignant a obtenu gain de cause, les juges estimant que l’utilisation de la reconnaissance faciale n’était pas suffisamment encadrée. Ils n’ont cependant pas remis en cause le recours à la technologie en soi.

En plus de l'utilisation sans cadre de cette technologie, la cour d'appel s'inquiète des dérives potentielles de la reconnaissance faciale. D'après les juges, la police galloise n'a pas pu apporter suffisamment de garantie pour prouver que l'algorithme qui alimente ce dispositif de contrôle ne discrimine pas les personnes racisées.

Ils ont aussi reproché à la police galloise de ne pas s’être suffisamment assurée que le logiciel ne présentait pas de biais racistes ou sexistes.

La bataille contre le déploiement de la reconnaissance faciale est loin d'être terminée mais c'est un revers supplémentaire infligée à cette technologie de contrôle. Dans un contexte où les expérimentations en dehors de tout cadre réglementaire se multiplient, chaque action compte pour ralentir la propagation de la reconnaissance faciale et pour protéger les libertés individuelles.

#ReconnaissanceFaciale


Source : Le Monde

Des émojis coup de poing pour se protéger de la reconnaissance faciale

Depuis le résurgence du mouvement Black Lives Matter, on a pu constater que les forces de l'ordre américaines n'hésitent pas à recourir à des contenus partagés sur les réseaux sociaux pour identifier les personnes qui participent aux manifestations contre les violences policières et les arrêter. Certaines personnes inquiètent de se faire arrêter renoncent à participer à ces manifestations et à exercer leurs droits civiques par la même occasion.

Pour tenter de protéger les manifestants qui sont pris en photo et empêcher les dispositifs de reconnaissance faciale de faire matcher les photos avec les informations conservées dans des bases de données, des chercheurs de Stanford ont développé une intelligence artificielle open source qui remplace les visages des manifestants par un émoji poing.

L'outil a recours à de la détection faciale pour remplacer le visage par un émoji. Cette méthode présente l'avantage de ne pas avoir à identifier les personnes qui sont sur les photos. L'algorithme a été entraîné à partir d'un échantillon de 1,2 millions de personnes.
The model we use in this work has been trained on over 1.2 million people in the open-sourced research dataset, called QNRF, with crowds ranging from the few to the the thousands. False negatives are the worst error in our case.

Les porteurs de ce projet rappellent que leur méthode par ajout d'un émoji est plus efficace que les méthodes d'anonymisation qui floutent les visages des personnes. En effet, des méthodes pour décoder et déflouter les photos peuvent révéler l'identité des personnes.

Computer scientists have tried to mitigate this threat by using blurring and pixelation techniques to hide the faces of demonstrators. But these masking methods can’t always protect protestors from facial recognition; machine learning methods can decode and unblur the images to reveal their concealed face.

Evidemment, cet outil n'est pas infaillible et l'identification d'un individu peut-être effectuée en recoupant plusieurs photos. Les vêtements ou tout autre élément distinctif peuvent compromettre l'anonymat des manifestants.

Blocking out the face offers a great form of anonymization; nevertheless, this cannot be mistaken for complete foolproof anonymity, e.g. if someone is wearing a t-shirt with their SSN or if they are not anonymized in another image and identity could be triangulated through similar clothing and surroundings. It may be self-evident, but this tool is not perfect, so please lend a careful and caring eye to ensuring faces are masked before sharing photos.

Enfin, pour protéger votre vie privée pendant les manifestations, n'hésitez pas à réécouter ce podcast d'Hackstock

BLM Privacy est disponible ici

#BlackLivesMatter #ReconnaissanceFaciale


Source : The Next Web / BLM Privacy

Une chaîne de pharmacies utilise un dispositif de reconnaissance faciale à l'insu de ses clients.

Dans une enquête publiée par Reuters, on découvre que la chaîne de pharmacie Rite Aid a recours à un système de reconnaissance faciale depuis 2012. Evidemment, le dispositif est déployé sans que le consentement des clients ne soit recueilli. De toute façon, ils ne pouvaient pas s'y opposer ou donner leur consentement car ils n'étaient pas informés de la présence de ce dispositif de surveillance.

Depuis quelques années, un débat existe autour de la reconnaissance faciale et des biais introduits dans les algorithmes qui font tourner ces intelligences artificielles. Les études qui mettent en avant l'existence de ces biais démontrent que la reconnaissance faciale à tendance à discriminer certaines populations en particulier les noirs américains. L'enquête de Reuters confirme à nouveau que la reconnaissance faciale est une technologie qui porte préjudice aux personnes racisées. En effet, la chaîne de pharmacies a déployé son dispositif en priorité dans des quartiers populaires à majorité noire-américaine ou latino-américaine pour lutter contre le vol et les violences :

"Dans les zones où les personnes de couleur, y compris les résidents noirs ou latinos, constituent le groupe ethnique le plus important, Reuters a constaté que les magasins étaient trois fois plus susceptibles d'être équipé de cette technologie", peut-on lire dans l'enquête. De son côté, la chaîne américaine explique que le choix des emplacements reposait sur des données liées à l'historique des vols en magasin ainsi que sur des statistiques criminelles locales et nationales."

Le dispositif relève presque du pré-crime. Les caméras procèdent à une comparaison des images de clients présents dans le magasin et des images de clients ayant déjà commis un délit au sein des pharmacies. Si elles repèrent un individu, une notification est envoyée aux agents de sécurité pour demander aux clients suspectés de commettre un nouveau délit de quitter les lieux.

"The point of the whole operation, the report states, was to alert security personnel of someone entering the store that had exhibited past criminal activity, so that they may be asked to leave to help prevent theft or crime. But Reuters’ interviews with former employees and managers illustrate how the system was used to racially profile customers."

Dans ce contexte, le dispositif de surveillance préjuge des actions des individus en s'appuyant sur des actes passés et les catalogue définitivement comme criminels en faisant peu de cas du principe de présomption d'innocence. En outre, si une personne a effectivement commis un délit par le passé et qu'elle s'est acquittée de sa dette auprès de la société par l'intermédiaire d'un jugement, cette dernière sera éternellement comptable de ses actes. On assiste donc à l'élaboration d'une criminalisation ethnique qui stigmatise une partie de la population.

#Videosurveillance #ReconnaissanceFaciale


Source : L'Usine Digitale / The Verge

Clearview AI : une enquête sur l'entreprise sulfureuse spécialisée dans la reconnaissance faciale

L'entreprise Clearview AI a fait couler beaucoup d'encre en début d'année. Elle propose une solution de reconnaissance faciale à des autorités ou des services de police. Plutôt discrète au départ, elle a commencé à faire parler d'elle notamment en raison de la méthode utilisée pour alimenter son intelligence artificielle. En effet, elle a tout simplement siphonné les photos qu'elle trouvait sur le web et les réseaux sociaux. Elle est parvenue ainsi à collecter près de 3 milliards de photos. Autrement dit, Clearview AI serait capable de reconnaître une bonne partie de la population mondiale à partir d'une simple photo. Avec une telle base de données et dans un contexte de déploiement continu des outils de contrôle et de surveillance, les autorités sont forcément sensibles à ce genre de dispositifs.

Mais le développement de Clearview AI risque de prendre un peu de plomb dans l'aile car les organismes britannique et australien de protection des données ont annoncé avoir engagé une action commune contre l'entreprise.

L’enquête se concentrera sur « l’utilisation par l’entreprise de données “scrappées” [c’est-à-dire récupérées automatiquement depuis Internet] et biométriques des individus », ont-elles précisé dans un communiqué commun. Ces deux autorités de protection des données ont noué par le passé des accords leur permettant de mener des enquêtes conjointes.

Ce n'est pas tout car l'entreprise a également essuyé un autre revers outre-Atlantique. Clearview AI n'a plus le droit de vendre sa techno sur le sol canadien en raison de la politique de confidentialité plutôt douteuse de l'entreprise.

Fin de partie pour Clearview AI au Canada. L’entreprise ne vendra plus sa technologie de reconnaissance faciale dans le pays d’Amérique du Nord, selon le gouvernement.

Ces déconvenues sont de maigres consolations face au développement général des outils destinés à contrôler la population ou des groupes d'individus. Mais ce n'est pas ce qui suffira à mettre un coup d'arrêt définitif à cette fuite en avant technologique. Ce n'est pas d'un débat sur les avantages et les risques dont la société civile a besoin. Il faut interdire purement et simplement le recours à ces outils qui grignotent toujours un peu plus les libertés individuelles et habituent les individus à se soumettre à des technologies de contrôle.

#ReconnaissanceFaciale


Source : Le Monde

Reconnaissance faciale : le CEPD demande un moratoire

L'organisme européen de contrôle des données, CEPD, réclame un moratoire sur l'utilisation de la reconnaissance faciale dans les lieux publics. D'après la CNIL européenne, la législation n'est pas suffisamment adaptée à cette technologie de contrôle.

L'une des raisons qui motive cette décision du CEPD est l'expérience amère qu'a vécue le directeur de l'institution Wojciech Wiewiórowski. En effet, il a fait l'objet d'une surveillance à plusieurs reprises et a été échaudé.

J'ai été au moins deux fois dans des situations où j'ai été pisté de cette manière. J'ai ressenti cela comme une intrusion dans ma vie privée et dans mon intimité

C'est tout de même malheureux de devoir passer par l'expérience personnelle pour mesurer combien cette technologie est intrusive et porte atteinte à la liberté des individus. En étant déployée dans l'espace public et nous nous sentons épiés et nous allons consciemment ou inconsciemment tenter de nous conformer à une norme sociale pour éviter de paraître suspects. Sans compter que la technologie de reconnaissance faciale discrimine d'autant plus fortement les personnes racisées.

Plus qu'un moratoire, c'est l'arrêt définitif et permanent de la reconnaissance faciale qu'il faut demander.

#ReconnaissanceFaciale


Source : L'Usine digitale

Méconnaissance faciale : une technologie de surveillance viciée

La reconnaissance faciale a du plomb dans l'aile. Depuis le sursaut citoyen de dénonciation des violences policières incarnées par le mouvement Black Lives Matter, plusieurs villes américaines comme Boston ou Los Angeles ont annoncé l'arrêt de l'utilisation de cette technologie par la police. Cet outil de contrôle pose de façon évidente des problèmes en matière de vie privée. Comment faire pour s'opposer à la captation de son visage ? Mais c'est aussi une technologie qui n'est pas neutre et reproduit des biais racistes. Dans la ville de Détroit, un noir américain a fait l'objet d'une arrestation parce que l'algorithme de reconnaissance faciale l'a confondu avec une autre personne recherchée par les autorités.

Robert Williams a passé trente heures en détention parce qu’un logiciel avait jugé identique la photo de son permis de conduire et l’image d’un voleur de montres capturée par des caméras de surveillance, selon cette plainte, rapportée par l'AFP.

Cependant, ces bévues ne suffisent pas à mettre un coup d'arrêt général au développement de cette technologie. On la retrouve partout, en particulier dans les transports en commun. L'argument de la sécurité des voyageurs est souvent mise en avant par les pouvoirs publics ou les régies de transports. A São Paulo, on hésite pas de prendre les voyageurs pour des pigeons en leur vendant un outil de surveillance respectueux de la vie privée. En effet, la direction de la compagnie de transports en commun explique :

Le cadre de la future réglementation générale sur la protection des données a été le modèle utilisé pour ce projet, qui n'utilisera pas de base de données contenant des informations personnelles ni n'enregistrera d'informations personnelles, la priorité étant la sécurité des passagers de METRO.

Tout n'est pas perdu, on peut tromper la reconnaissance faciale. Dans son livre Hacker Citizen, Geoffrey Dorne fournit une astuce en mode DIY pour “aveugler” les caméras de surveillance.
D'autres astuces sont également présentées sur le site Make

#ReconnaissanceFaciale #BlackLivesMatter


Source : ZDnet

Présumé coupable : la reconnaissance faciale au service du précrime

La fuite en avant technologique n'épargne pas le domaine de la lutte contre la criminalité. Les récits dystopiques qu'on peut retrouver dans les livres de Philip k.Dick deviennent la réalité. Des chercheurs s'apprêtent à publier une étude qui met en avant les avancées de l'intelligence artificielle pour lutter contre la criminalité. Les chercheurs auraient développé une intelligence artificielle (IA) couplée à de la reconnaissance faciale pour identifier des comportements criminels avant qu'ils ne se produisent. Ce projet n'est qu'à l'étude mais on entrevoit déjà les conséquences que cette technologie pourrait avoir sur certaines catégorie de la population. En effet, il a déjà été démontré que les IA ne sont pas neutres et portent en elles les biais des ingénieurs qui les ont conçus.

Leur logiciel automatisé de reconnaissance faciale serait en mesure de prédire si quelqu’un va possiblement devenir un criminel. Et en réponse, toute une coalition se ligue pour dénoncer le procédé, douteux, et surtout, les risques de dérives racistes — l’algorithme codé finirait par reposer sur des préjugés raciaux…

Y'a pas le choix, refusons cette IA !


#ReconnaissanceFaciale

Source : ActuaLitté

La Russie, bonne élève de la reconnaissance faciale

Régime autoritaire et technologies de surveillance font souvent bon ménage. Le pays dirigé par Vladimir Poutine prévoit de déployer un système de reconnaissance faciale dans des écoles du pays. L'objectif est de pouvoir observer les élèves et identifier des comportements non conformes aux règlements des établissements scolaires. Ce programme éducatif répond au subtil nom “Orwell”. Et cerise sur le gâteau, ce dispositif pourrait également être utilisé pour surveiller les enseignants. Le capitalisme de surveillance ne perd pas une occasion d'étendre ces tentacules afin de renforcer la société de contrôle. Les réfractaires et les opposants peuvent se rassurer. Les données seront stockées localement et pour l'instant le programme repose sur le volontariat.

Forcément, un système aussi intrusif a tendance à déplaire mais les concepteurs se veulent plutôt rassurant à son sujet. Les données seraient stockées sur des serveurs locaux afin d’éviter les fuites. La participation serait également basée sur le volontariat à condition que les parents et les élèves donnent leur accord.

Comment ça la caméra ne sait pas faire la différence entre une personne volontaire et une autre qui n'a pas accordé son consentement quand on entre dans son champ ?

Je vous vois bande de mauvaises langues !

#ReconnaissanceFaciale #caméras #éducation

*** Source : Presse Citron