top of page
  • Photo du rédacteurJules

Le métro londonien teste la surveillance par l’intelligence artificielle

Des outils de surveillance par l’IA ont été testés pendant un an dans une station de métro à Londres. Du port d’armes au dépassement de la ligne jaune de sécurité, le logiciel était chargé de repérer tous les dangers potentiels, révèle le site américain “Wired”.


Pendant un an, les usagers de la station de métro Willesden Green, à Londres, ont été observés par des algorithmes d’intelligence artificielle (IA) capables de détecter des comportements suspects ou dangereux. Cette expérimentation, menée par Transport for London (TfL), l’opérateur du réseau de transport public de la capitale britannique, soulève des questions éthiques sur l’utilisation de l’IA dans l’espace public.



Des algorithmes pour repérer les fraudeurs et les agresseurs

Selon le site américain Wired, qui a révélé l’affaire, TfL a testé 11 algorithmes de vision par ordinateur sur les images de vidéosurveillance en direct de la station de métro. Ces algorithmes étaient chargés de suivre le comportement et le langage corporel des personnes présentes dans la station, et de signaler au personnel de la station toute situation potentiellement problématique, comme la fraude, le port d’armes, les actes d’agression ou les personnes en détresse.

Au total, plus de 44 000 alertes ont été émises au cours de l’essai d’un an, dont 19 000 ont été transmises en temps réel. Toutefois, l’IA n’était pas infaillible, et a parfois confondu des gestes anodins avec des signes d’hostilité, mettant en doute la fiabilité des algorithmes de détection des objets.


Un projet qui pose des questions éthiques

Si l’expérience menée à Willesden Green ne portait pas sur la reconnaissance faciale, elle n’en pose pas moins des questions éthiques sur le respect de la vie privée et des libertés individuelles des usagers du métro. Michael Birtwistle, expert en protection de la vie privée, interrogé par Wired, estime que "si ces technologies doivent être utilisées, elles ne doivent l’être qu’avec la confiance et le consentement du public".

Or, selon Wired, TfL n’a pas informé les usagers de la station de l’utilisation de l’IA, ni demandé leur avis. L’opérateur a simplement affiché des panneaux indiquant que des “caméras intelligentes” étaient en cours de test, sans donner plus de détails. TfL a également déclaré vouloir étendre son utilisation de l’IA à d’autres stations de métro à Londres, ce qui pourrait renforcer la surveillance de masse dans la ville.




Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page