Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
Lectures, analyses et réflexions de Raphaël
13 janvier 2019

Des cameras de vidéosurveillance racistes (Raphaël ADJOBI)

           Des cameras de vidéosurveillance racistes

Vidéosurveillance 0

            Non, vous ne rêvez pas ! Prenez le temps de découvrir la face non cachée mais méconnue d'une technologie supposée très belle et fiable. Nous savons tous que c'est au nom de la sécurité des citoyens que la vidéosurveillance a inondé notre espace public. La France en compte soixante mille. Londres en comptabilise cinq cent mille, et la Chine six cent trente millions - de plus en plus spécialisées dans la reconnaissance faciale. Et ici comme ailleurs, les autorités assurent que cela s'est fait avec l'assentiment des populations. Elles ont sans doute raison, parce que «qui ne dit rien consent».

            Selon Olivier Tesquet (Télérama 3600 du 9/01/2019), fin 2017, Amazon a lancé Rekognition, sa technologie de reconnaissance des visages à destination des autorités. Curieuse, une association américaine de défense des droits civiques a testé l'appareil sur des parlementaires américains. Bel exercice pour s'assurer de la fiabilité de cet outil révolutionnaire destiné à assurer la sécurité de tous. Résultat : «vingt-huit des parlementaires, notamment celles et ceux à la peau noire, ont été confondus avec des criminels» ! Suite à cette expérience qui prouve que des données racistes équipent le logiciel de surveillance, les salariés d'Amazon ont demandé à leur entreprise de cesser la commercialisation de Rekognition auprès des forces de l'ordre.

Reconnaissance faciale 4

            Il convient donc de retenir ceci : on peut construire des logiciels racistes sur la base de données racistes à la demande des autorités nationales ou selon la volonté raciste de leur concepteur comme semble être le cas de Rekognition. Quant à ceux qui veulent passer outre cet aspect scandaleux de l'usage de cette technologie parce qu'ils voient en elle l'assurance de leur tranquillité, qu'ils sachent - toujours selon Olivier Tesquet - que la police londonienne a testé un de ces logiciels en 2017 pendant le carnaval de Notting Hill. Taux d'erreurs : 98% ! Raciste ou pas, les cameras de vidéosurveillance à reconnaissance faciale sont très loin d'être fiables.

            Maintenant, c'est à vous de réfléchir ; c'est à vous de confier votre identité et donc votre sécurité à de dangereux systèmes de surveillance de la police ou d'exiger que l'on fasse ce qui est juste. C'est à vous de voir si des hommes et des femmes - surtout noir(e)s - doivent être condamnés sur la base de l'aveugle confiances des nos Etats, majoritairement blancs, en leur science également aveugle.

Raphaël ADJOBI

Publicité
Commentaires
Publicité
Publicité