Les enjeux d’aujourd’hui poussent les entreprises stratégiques à accroître la protection de leurs bâtiments contre les menaces intérieures ou extérieures. En effet, les Opérateurs d’Importance Vitale (OIV), les Opérateurs de Services Essentiels (OSE), les sites classés SEVESO ainsi que les bâtiments militaires nécessitent une protection accrue face à ces nouvelles menaces. Pourtant les caméras de surveillance dotées d’intelligence artificielle n’ont pas intégré cette politique. Focus sur cet enjeu stratégique.
Des innovations technologiques françaises dans la vidéosurveillance.
De nombreuses entreprises françaises œuvrent pour la mise en place d’intelligence artificielle (IA) au cœur de la vidéosurveillance. En effet, l’IA permet d’intégrer de nouvelles dimensions à la surveillance d’une infrastructure physique.
La startup française Aquilae illustre cet exemple dans la mesure où elle propose une solution qui équipe des sites sensibles tels que des bases militaires. En effet, une vidéosurveillance couplée d’IA comporte d’autant plus d’intérêts qu’elle peut analyser des situations et des images et ainsi assister l’opérateur humain derrière cette caméra.
Grâce à son logiciel de vidéo surveillance intelligente JAGUAR, la PME Evitech est en mesure de détecter toute intrusion physique mais également d’analyser toute allure suspecte. En effet, un individu s’arrêtant plusieurs fois, faisant demi-tour ou chutant peut être repéré. Elle compte parmi ses clients des sites de production d’électricité ainsi que des infrastructures pétrolières.
Si les caméras peuvent détecter des mouvements grâce aux images, elles le peuvent maintenant grâce aux sons. Tel est le défi qu’a relevé Sensivic, une startup française ayant développé une intelligence artificielle capable de détecter du son sur une image. Ces caméras peuvent surveiller un site à l’intérieur aussi bien qu’à l’extérieur. Lorsque le son est différent du modèle défini auparavant, il envoie une notification. Le détecteur capte le son et oriente ainsi la caméra vers la source sonore. Cette solution équipe majoritairement les villes. Il convient toutefois de noter que ces caméras n’ont pas le droit de conserver ces enregistrements.
La surveillance peut également être appuyée par des images satellites. Preligens (ex-Earthcube) propose à différents services de renseignements, une solution basée sur l’imagerie satellite afin de surveiller leurs sites sensibles. Grâce à l’intelligence artificielle, la startup a réalisé une levée de fonds de plus de 20 millions d’euros auprès du ministère des Armées. Elle compte également parmi ses clients des services de renseignements étrangers.
Outre les caméras fixes, les drones jouent un rôle important dans la protection de ces sites. En effet, ils permettent d’effectuer des rondes en permanence et ont une réelle utilité sur des sites très étendus comprenant certains accès limités. Implantée à Bordeaux, Azur Drone propose par exemple un produit en mesure de surveiller les sites sensibles à l’instar de sites industriels ou des raffineries. Le 4 février 2021, il a été annoncé que ce système était en cours d’expérimentation pour la surveillance du site d’Orano à La Hague (Manche). Même si l’utilisation de ces drones est très surveillée par la CNIL, Skeyetech a obtenu une première autorisation de vol par la DGAC en 2019.
Mais si la France est soutenue par de nombreuses applications technologiques, elles semblent cependant freinées par des résistances culturelles et éthiques.
Des limites politiques et culturelles, bien plus que technologiques
Sûreté, sécurité et cybersécurité, quelle différence ?
Pour comprendre le rôle et l’importance prise par la vidéosurveillance intelligente dans la sûreté de sites sensibles, il convient dans un premier temps de définir les termes de la ou des problématiques que la discipline pose. La sécurité (safety, en anglais), cherche à prévenir des problèmes relevant de l’accidentel, et ce en se basant sur un corpus de normes et réglementation claires. La sûreté (security, en anglais), cherche à protéger et à lutter contre les actes de malveillance, soient des actes relevant de l’humain et de l’intentionnel. En partant de ce constat, on comprend bien rapidement que si la cybersécurité (qui devrait être en réalité traduite par « cybersureté » pour se rapprocher avec plus de justesse du terme « cybersécurity ») relève du technologique (donc de normes et de réglementations), elle participe en réalité activement à la protection des actes de malveillance cyber. On pourrait alors qualifier la cybersécurité de « composante numérique » à la sûreté, qui s’appuie sur des pratiques de sécurité des systèmes d’information afin de lutter contre la cybercriminalité. Donald G. Firesmith, dans son étude Common Concepts Underlying Safety, Security, and Survivability Engineering met en lumière cette composante : “A l’instar de la sûreté physique vis-à-vis de la sécurité physique, la cybersécurité – composante numérique de la sûreté – contribue indirectement à garantir la sécurité fonctionnelle au regard des actes de malveillance qui ne sont généralement pas pris en compte par l’ingénierie systèmes, car considérés légitimement en dehors du champ de l’étude.”
Quelles limites ?
L’intégration de l’intelligence artificielle dans la vidéosurveillance est-elle limitée par des retards technologiques, ou bien par des résistances à la fois culturelles et éthiques ? Concernant le potentiel de l’IA, le développement de ces technologies dans le monde de la sûreté est encore balbutiant. Comme vu précédemment, des solutions sont toutefois proposées par des entreprises de R&D. Des entreprises comme Onet cherchent à entrer dans un réseau et se rapprocher de propositions, sans pour autant déclarer utiliser de l’IA dans leurs systèmes de surveillance (on parle de « prototypes » testés auprès des clients). Ainsi, et même si le secteur de la R&D française n’en est pas à son premier tir en matière d’intelligence artificielle, la limitation des applications est plus un risque qu’une limite à son potentiel, et ne semble pas constituer une limite au développement de ces prototypes dans nos entreprises.
La limite pourrait résider dans les inquiétudes et les résistances éthiques de la population française. Ce n’est pourtant pas réellement le cas : les Français ne sont pas réfractaires à l’IA. En effet, selon un sondage en ligne mené en juin 2019, 61% des français se considèrent « plutôt confiants” voire “tout à fait confiants” face à l’intelligence artificielle. Selon une autre étude, cette fois-ci menée par l’institut Harris Interactive en mars 2019, “les Français estiment majoritairement que l’IA joue un rôle important aujourd’hui au niveau collectif, mais moins dans leur environnement immédiat”. Ainsi selon Genséric Cantournet, PDG de Kelony, « c’est donc moins l’outil qui compte que l’usage qu’on en fait. », notamment concernant les problématiques liées à la protection des données personnelles.
Si les progrès de l’IA semblent perçus comme une source de risque, il est donc naturel que des instances de régulations comme la CNIL se soient penchées sur le sujet, notamment concernant la question du droit à l’expérimentation afin de faire progresser l’introduction de l’IA dans les caméras de vidéosurveillance. Dans un rapport publié en décembre 2017 au sujet de l’éthique et l’IA dans les systèmes de surveillance, la CNIL s’inquiète des enjeux éthiques touchant la protection des données personnelles et le respect de la vie privée des personnes. Ce rapport a d’ailleurs été en partie rédigé en réaction aux tests de l’application Reporty (qui permettait aux témoins d’une infraction ou d’un fait suspect d’alerter instantanément la police municipale grâce à son smartphone), initiés par le maire de Nice, Christian Estrosi. Face à ces résistances législatives et politiques, le débat sur l’utilisation de l’IA en sûreté limite véritablement toute tentative de démocratisation de la vidéosurveillance intelligente.
Anna de Castro et Neha Grivet, pour le club Cyber de l’AEGE
Pour aller plus loin :