L'IA et la Sécurité

L'heure des choix

Compte rendu de conférence

L'IA ET LA SÉCURITÉ

À la maison de l’Intelligence Artificielle (MIA) a eu lieu le 24/10/2021uneconférence passionnante sur les enjeux de la cyber sécurité nationale, industrielle, et personnelle.

De nombreux intervenants au cœur de ces enjeux ont éclairé le public présent sur l’évolution de l’IA dans ce domaine et l’éthique nécessaire pour garantir à la fois la sécurité et la confidentialité des coordonnées personnelles .

Tout d’abord Le Colonel Patrick PERROT, coordonnateur IA pour la Gendarmerie nationale, expert « enjeux de la sécurité » au sein de l’Institut EuropIA, a exposé combien nous sommes à l’heure des choix pour que la sécurité de tous, dans le respect des libertés individuelles et de la protection des données à caractère personnel, soit une priorité. C’est un équilibre difficile à trouver et lors des prochains événements internationaux qui vont se tenir en France nous serons regardés de près afin d’observer notre compétence sur ce sujet pointu qui impacte notre vie quotidienne et notre sécurité nationale.

Charles BOUVEYRON directeur 3IA ,expert en mathématiques appliquées, directeur de MAASAI, présente les défis à relever au plan des réseaux de télécommunications dans la cyber sécurité: cyber défense et harcèlement en ligne. Il explique qu’il y a des interactions caractérisées par du texte: il faut analyser les interactions et le texte afin de savoir qui parle à qui et de quoi. L’idée est d’être en capacité d’identifier ce type d’exemple sur des millions d’exemples et c’est là que les algorithmes d’IA peuvent entrer en action pour analyser le phénomène :

identifier le nombre d’individus qui sont dans ce réseau et le nombre d’individus qui parlent du même sujet. L’IA fait une analyse algorithmique synthétisée en 2 ou 3 groupes de données qui seront analysées par un informaticien humain qui en tire des conclusions. En terme de cybercommunauté l’analyse LINKAGE peut détecter des groupes malfaisants, complotistes ou d’influenceurs. On peut aussi dans des masses de données identifier des groupes de 2 personnes parlant d’un sujet spécifique. La gendarmerie a ainsi une aide qui peut vérifier le danger ou pas que présentent ces individus. Charles Bouveyron démontre la finesse des analyses sémantiques à partir d’exemples de l’application LINKAGE qui permet de gagner des semaines d’analyse. plusieurs experts d’EUROPIA dans des domaines très divers sont capables d’avancer très loin dans ces domaines du cyber harcèlement notamment, grâce à LINKAGE .

Puis, Le préfet Renaud VEDEL responsable national de la stratégie nationale de l’IA qui s’inspire du rapport VILLANI insiste sur l’aspect étatique des responsables de la sécurité de notre pays. LaFrance finance des stratégies d’investissement dans l’écosystème numérique et les pôles d’activité.

La sécurité est un des éléments majeurs de data science avec la prédictivité de variables dans les chaînes de décision. L’IA détecte des anomalies mais ne peut se substituer au modèle de décision humaine. Il faut former d ‘urgence les jeunes générations à traiter ces signaux divers. Il y a 7 centres de haut niveau qui travaillent en France (CNRS,INRIA,etc..)avec des jeunes start-up très dynamiques .Ces technologies ne sont pas parfaites elles sont de nature statistique et peuvent faire des erreurs avec des modèles qui ont des limites et ont besoin de régulation des données ainsi que d’un cadre juridique à faire évoluer. 

Les machines ne peuvent remplacer les humains et il faut des politiques de régulation avec des experts de la donnée. Les systèmes IA ont des vulnérabilités: données empoisonnées, données de leurre, risque de désalignement humain/machine, qui trompent le modèle, etc..qui nécessitent de contrôler les anomalies voire, de les tester, pour développer des systèmes plus robustes et plus fiables. La coupe du monde de Rugby et les jeux olympiques sont un terrain important d’expérimentation réelle: une vitrine internationale unique! la cybersecurité c’est 135000 emplois et 30 milliards de CA. en France dont la moitié à l’export.

L’Europe propose plusieurs niveaux de risques: biométrie faciale, usages à haut risque, contrôle des frontières, informations intelligibles, d’où:

Obligations et traçabilité de la réglementation qui seront indispensables avec des schémas de maîtrise des risques. C’est une technologie et on doit choisir ce qu’on délègue aux machines et ce qui reste automatiquement dans la main de l’humain qui doit rester dans la boucle à toutes les étapes. En tout état de cause, il est impossible actuellement de s’en remettre uniquement à la machine. La formation est un sujet majeur et la Chine offre un cursus IA dans 345 universités ou écoles d ‘ingénieur chinoises…Il est urgent que la France passe à la vitesse supérieure avec un modèle IA numérique dans tous les domaines d’expertise, dans l’ensemble de la société, et dans l’éducation.

Pour Dominique LEGRAND, AN2V, directeur d’ESIEE, expert en vidéo protection des smart city. Il y a 2 évolutions lourdes:

1-la taille des projets, car il faut un niveau de compétence donc il faut s’intéresser à des grosses métropoles, avec des départements qui s’engagent sur des gros PC vidéo surveillant des centaines de communes grâce à l’IA.On ne peut pas surveiller les centres-villes et abandonner les banlieues parce qu’il est impossible à des surveillants humains de contrôler simultanément 3800 écrans!

2-la liste des usages (180) et leurs notions de risques ainsi que la nouvelle notion de durabilité afin de maîtriser une consommation soutenable de l’énergie utilisée pour respecter la planète.

Le continuum de sécurité est une révolution structurelle, car si technologiquement nous sommes très avancés, en revanche nous sommes encore dans le flou et le désordre, en organisation et coordination des services qui doivent être mis à l’horizontale pour être immédiatement sollicités en continuum avec un schéma simple:

1 je détecte le signal
2 je transmets l’information
3 je choisis le bon service qui prend la bonne décision 4 j’interviens

De même, Stéphane GENTRIC, maître de conférences aux telecom de Paris, directeur IA del’UPMC, rappelle que la sécurité publique est de la responsabilité de l’état. La reconnaissance faciale doit être évaluée par des sociétés neutres et l’industriel doit s’engager pour le respect des droits fondamentaux de l’individu sans gêner l’avancée de la technologie .On peut déployer des solutions qui respectent la sécurité des données.

Alan FERBACH expert en vidéo, co-fondateur de VIDETICS, montre qu’il faut sur 3800 vidéos à Paris par exemple, filtrer les signaux pour identifier les signaux importants et les signaux faibles, et prendre la bonne décision. Nous n’allons pas sur le modèle chinois dans la sécurisation.

En conclusion, la biométrie a amélioré la vie de milliards de personnes dans le monde. Le projet de réglementation viendra perfectionner le système avec l’avancée de la cryptographie, qui garantit la confidentialité des données. Horizon Europe travaille sur ces sujets d’éthique et sur les cybermenaces qui polluent l’avancée des projets transversaux.

La problématique de ces cybermenaces très coûteuses, pour l’industrie et pour les individus, c’est l’étude de la menace imaginée très tôt pour l’intégrer en premier lieu avant même de mettre en route tout nouveau système,etimaginer un plan »B » qui prend le relais, afin de ne pas casser l’envie d’interconnection développée dans tous les domaines.

C’est un enjeu majeur et planétaire pour l’avenir. ● Marie-Hélène Parent

Envie d'en savoir plus ?

Retrouvez le replay de la conférence