Quand l’IA est sur le front de la cyberguerre

Où se concentre la recherche sur l’intelligence artificielle ? Le plus grand nombre d’investissements et de publications, concerne 3 domaines en forte croissance :

  • Pattern Recognition (analyse et reconnaissance de modèles et de formes), 
  • Machine learning (capacité des machines à apprendre et à évoluer de manière autonome) et ,
  • Computer Vision (vision artificielle et interprétation d’images) . 

C’est ce qu’indique l’étude « AI Index Report 2022 » publiée mi-mars par le Stanford Institute for Human-Centered Artificial Intelligence, qui fait chaque année le point sur l’état de la recherche mondiale sur l’intelligence artificielle. Le rapport note également la préoccupation croissante qui a émergé en 2021 pour les aspects éthiques de l’IA. « Comme ces systèmes sont de plus en plus utilisés dans le monde réel, nous devons comprendre comment ils peuvent perpétrer des dommages », explique Helen Ngo, chercheuse affiliée qui a participé à la rédaction de l’AI Index 2022. Discriminations, mauvaises interprétations, abus commerciaux, ou formes de contrôle non autorisées, en bref, à ce jour des délits mineurs. Mais, en temps de guerre, tout change : l’utilisation de l’IA peut devenir une arme redoutable.

Les algorithmes de reconnaissance de formes, telle que la vision par ordinateur, sont essentiels à la fabrication de Deepfake, de fausses vidéos largement utilisées dans la propagande pour discréditer et désorienter l’ennemi. Le même type d’algorithmes contribue aux techniques de reconnaissance faciale et d’identification des personnes par l’image, qui dans les pays dictatoriaux, servent à trouver et à neutraliser les opposants. L’apprentissage automatique est largement utilisé pour programmer des cyberattaques à grande échelle contre l’infrastructure informatique de l’autre partie. Et les trois technologies d’intelligence artificielle déjà mentionnées contribuent à l’utilisation de robots d’attaque tels que les drones, qui, grâce à des capacités avancées de vision par ordinateur et à la conduite autonome ou distancielle, peuvent non seulement trouver des informations, mais également atteindre des cibles. Voyons ce qui se passe ces dernières semaines sur la vraie scène de la guerre entre la Russie et l’Ukraine.

DEEPFAKE

Le 16 mars, un clip vidéo dans lequel apparaît le président ukrainien Zelensky, qui demande sur un ton inhabituel aux troupes ukrainiennes de déposer les armes et de se rendre aux envahisseurs russes, apparaît sur Facebook, YouTube, Telegram et le réseau social russe VKontake. La chaîne de télévision Ukraine 24 prévient que son site a été piraté et montre l’image fixe de cette même vidéo sur laquelle un défilement a été inséré pour dénoncer que le contenu est une fake news. Quelques minutes après que la chaîne de télévision a averti du piratage, Zelensky lui-même a posté une vidéo sur Facebook niant avoir demandé aux Ukrainiens de déposer les armes et qualifiant le faux de « provocation puérile ». Un deepfake qui a été dévoilé très rapidement, indique l’Atlantic Council, le centre d’études américain de géopolitique et de sécurité, grâce à la réponse rapide du Centre ukrainien de communication stratégique, déjà bien formé pour lutter contre les fausses nouvelles russes. Dans le monde occidental aussi la réaction à cette vidéo est presque immédiate, dit le magazine Wired. Nathaniel Gleicher, responsable de la politique de sécurité de Facebook Meta, a communiqué sur Twitter que la société avait supprimé le clip deepfake original pour avoir enfreint sa politique contre les médias manipulateurs et  trompeurs. Le porte-parole de Twitter, Trenton Kennedy, a déclaré que la société interceptait la vidéo et la supprimait, car elle violait les règles interdisant les médias  trompeurs. La porte-parole de YouTube, Ivy Choi, a déclaré qu’elle avait également supprimé les téléchargements de cette vidéo.

Et Wired lui-même a dénoncé l’utilisation excessive des « deepfakes comme armes dans le conflit ». Le Monde a également publié le 4 mars une liste de fake et deepfake news utilisées par les Russes contre l’Ukraine, avertissant que le président Zelensky avait été  visé à plusieurs reprises par de faux clips vidéo utilisés par les Russes pour diffuser de fausses nouvelles, disant par exemple qu’il avait fui ou avait capitulé sur le front du Donbass.

IA et VIDEO SURVEILLANCE

Les autorités russes continuent d’étendre l’utilisation de la reconnaissance faciale pour identifier et suivre les opposants politiques. L’utilisation de cette technologie sans aucune réglementation a de graves implications pour les droits de l’homme et la liberté », dénonce l’organisation Human Rights Watch. Dans la seule ville de Moscou, plus de 125 000 caméras sont activées et le flux vidéo continu du système de surveillance arrive au département informatique de Moscou, où les images sont analysées par des algorithmes et stockées. La surveillance des stations de métro et des bus scolaires a aussi permis de récolter, selon les estimations, les images des visages de centaines de milliers de personnes. Depuis avril 2020, le gouvernement a fait adopter par le Parlement une loi qui autorise l’utilisation de l’intelligence artificielle pour la reconnaissance faciale sans aucune restriction. Et l’utilisation de l’IA a également permis une mise à niveau du système pour identifier les personnes, même si elles sont de profil, à partir de leur « silhouette » , même en mouvement. Les personnes participant à une manifestation ont été passées au crible et traquées, jusque dans les jours qui ont suivi, pour être ensuite arrêtées par la police. La reconnaissance faciale est également étendue aux images qui apparaissent sur les réseaux sociaux ou sont stockées sur les smartphones. Le « Système biométrique unifié », sous le contrôle total du gouvernement, prévoit la participation de l’opérateur téléphonique Rostelecom. Le Monde et l’AFP rapportent que 4 640 arrestations ont eu lieu dans 65 villes russes le 6 mars à la suite des manifestations anti-guerre. Et depuis le début du conflit, plus de 13 000 personnes ont été arrêtées en raison de la protestation contre la guerre.

CYBER-ATTAQUES

Le conflit entre la Russie et l’Ukraine a déjà commencé dans le cyber-espace, un mois plus tôt que sur le terrain. Non seulement avec la propagation de logiciels malveillants (en particulier les « winer » pour éliminer les données des mémoires des cibles touchées) mais aussi avec de lourdes attaques DDdos (déni de service distribué) lancées par les Russes pour bloquer les systèmes des banques, des entreprises, des médias, des sites de l’administration publique. Cependant, les combattants ukrainiens ont réussi à restaurer et à entretenir pleinement leur cyber-espace et les connexions Internet , grâce aussi aux box Starlink connectées aux satellites pour le haut-débit, mises à disposition par Elon Musk. Et ils continuent d’utiliser des communications cryptées sur les téléphones portables. Le ministère ukrainien de la Transformation numérique, dirigé par Mykhailo Fedorov, un geek de 31 ans fondateur de start-up, s’est transformé selon Wired en une « véritable machine de guerre ». Fedorov a fait appel, via une chaîne Telegram, aux développeurs, programmeurs, spécialistes de la sécurité, demandant de contribuer à « l’armée informatique » et plus de 300 000 volontaires s’y sont joints, à l’intérieur et à l’extérieur du pays. De plus, avec un échange via Tweet, il a obtenu en quelques jours l’adhésion d’Apple, Meta, Microsoft et d’autres grandes entreprises de haute technologie qui ont bloqué les services et les ventes de produits en Russie, offrant au contraire un soutien au réseau ukrainien. L’aide de pirates Anonymous s’est également manifestée, lançant l’opération #OpRussia en attaquant et en bloquant à plusieurs reprises les sites de la télévision russe RTNews, Gazprom, ainsi que la société d’armement biélorusse Tetraedr. Les pirates informatiques ont même réussi à frapper les sites du ministère de la Défense et celui du gouvernement Kremlin.ru.

DRONES DE GUERRE

Un gros drône doté de capacités autonomes, également appelé « robot tueur » car il identifie avec précision les cibles grâce à l’intelligence artificielle, a été utilisé par les attaquants russes en Ukraine. Appelé Kub-Bla et produit ces deux dernières années par la société russe Zala Aereo, il a été identifié, grâce aux photos diffusées sur Telegram et sur Twitter d’un spécimen endommagé et écrasé. Auparavant, il n’était utilisé qu’en Syrie et on ne sait pas combien d’unités,  l’appareil militaire russe en possède. Les forces ukrainiennes utilisent également des drones télécommandés, les TB2 de fabrication turque. Ils ont servi à lancer des attaques surprises en trouvant des cibles et en fournissant des coordonnées pour les lancements de missiles sur des véhicules et des chars russes. Des drones plus sophistiqués de fabrication américaine, équipés de systèmes de conduite autonomes et capables de transporter des charges explosives, sont en train d’arriver en Ukraine grâce à l’aide occidentale. Le conflit actuel est déjà un test sur le terrain et en grandeur réelle, d’un scénario de guerre futuriste où l’IA sera un protagoniste dangereux à part entière.

Chiara Sottocorona, journaliste freelance

Leave A Comment