Le complotisme à l’heure des « Deepfakes »

deepfake

Deepfakes, voilà un terme anglais qui commence à envahir notre quotidien et qui ne cessera de croître au point de devenir un enjeu majeur en matière de sécurité. Condensés entre le « deep » du deeplearning et le « fake » de fakenews, les « deepfakes » exploitent des méthodes d’intelligence artificielle à base de réseaux de neurones profonds. Ce terme est apparu pour la première fois en 2017 sur le site Reddit où le visage de célébrités était inséré dans des vidéos à caractère pornographique. Depuis, ce type d’applications n’a cessé de croître avec une hausse de 100 % de ces vidéos entre 2018 et 2019. Très présent dans le champ de la pornographique, le phénomène apparaît aujourd’hui dans de nombreux domaines qu’il convient dès à présent d’appréhender afin de pouvoir à défaut de le prévenir, le contenir. C’est un challenge pour les forces de sécurité qui doivent déjà faire face à une montée des théories complotistes qui ne manqueront pas de se démultiplier par l’émergence d’un usage massif des  « deepfakes » .

Les théories du complot ont toujours existé et nous pouvons en citer quelques unes qui subsistent encore. Que ce soient Hitler, Maryline Monroe, Elvis Presley, ou encore Michael Jackson, ils auraient survécu à leur disparition officielle. John Fitzgerald Kennedy aurait été assassiné par la CIA pour son manque de soutien à l’agence, alors que la princesse Diana aurait succombé sur ordre de la famille royale d’Angleterre, Neil Amstrong n’aurait jamais marché sur la lune, le virus du Sida aurait été créé en laboratoire pour diminuer la population mondiale et pour certains en dépit des images de Thomas Pesquet, la terre serait toujours plate…                                                                               

Ces théories pourraient prêter à sourire si elles ne constituaient le socle de mouvements radicaux qui peuvent dériver vers une violence collective comme individuelle. Le mouvement QAnons par exemple relate, « preuve » à l’appui, qu’une cabale politique, satanique et pédophile contrôle secrètement le gouvernement américain. Parti des États-Unis, ce mouvement est aujourd’hui international et ses membres ont affirmé leur volonté de diriger la planète. Durant la crise des gilets jaunes, la lettre Q en rouge et noir, symbolisant le mouvement, est apparu sur les murs après nombres de manifestations parisiennes. En décembre 2020, dans le Puy de Dôme, trois gendarmes sont tués par un homme se révélant être survivaliste, encore un mouvement au fondement complotiste.  Cette tendance caractériserait également les ravisseurs de la jeune Mia, enlevée en avril 2021. Ces différents mouvements puisent dans le socle complotiste, la justification de leurs actions. Les élections à venir devraient également révéler l’essor de nouvelles théories tout comme la période de crise sanitaire que nous traversons, ne manque et ne manquera pas d’explications à base complotiste.                                           

Fort de ce constat, nous ne pouvons qu’être particulièrement vigilant et attentif au développement comme à l’utilisation des « deepfakes ». En effet, cette méthode d’intelligence artificielle qualifiée, certainement à raison, par Yann Le Cun de «l’idée la plus intéressante des 10 dernières années dans le domaine du machine learning» pourrait transformer profondément les possibilités d’imposture à l’origine de théories complotistes. 

Le phénomène apparaît aujourd'hui dans de nombreux domaines qu'il convient dès à présent d'appréhender afin de pouvoir à défaut de le prévenir, le contenir

D’où viennent les « deepkafes » ?

 En 2014, une nouvelle méthode basée sur des réseaux de neurones apparaissait grâce aux travaux d’un jeune chercheur, Ian Godfellow. Il s’agit des GAN (Generative Adversal Network ou réseau antagoniste génératif).  Le principe repose sur la mise en compétition de deux réseaux de neurones convolutifs, l’un générateur, le second discriminateur, qui s’entraînent dans une relation contradictoire pour s’améliorer mutuellement. 

Dans la phase d’apprentissage, le réseau discriminateur apprend à reconnaître des images par exemple, à partir d’un ensemble de deux classes d’images, l’une réelle et l’autre, synthétique. L’objectif du réseau générateur est de créer des images artificielles de la meilleure qualité possible alors que le discriminateur a pour objectif de détecter si l’image présentée est réelle ou si elle est synthétique à savoir générée. Comme indiquée sur la figure ci-dessus, il s’ensuit deux boucles de retour qui ont pour effet d’optimiser à la fois le niveau de génération et de discrimination. Ainsi le générateur va produire des images de plus en plus réalistes tandis que le discriminateur identifiera de mieux en mieux les images synthétiques. A partir d’une relation contradictoire entre les deux réseaux, le système délivre une réponse gagnante-gagnante. In fine, le GAN a produit des exemples d’images synthétiques qui se confondent avec des images réelles à partir d ‘une image aléatoire.

Du deepfake à la manipulation                                                                                     

Les applications des GAN sont conséquentes à la fois dans le domaine de l’image mais aussi du texte, de la sculpture, de la voix comme de l’audio en général. Il est aujourd’hui possible de coloriser des films en noir et blanc avec une grande vraisemblance et de redonner vie à de vieux documents mais aussi de restaurer des images comme des vidéos en prédisant des trames vidéos manquantes.     

Malheureusement, les GAN offrent aussi des possibilités d’imposture malveillante démultipliées sur des cas d’usage variés incluant toute forme de créativité humaine. Ces nouvelles possibilités de manipulations ouvrent la porte à un rebond de théories complotistes qui trouvent dans les réseaux antagonistes génératifs des perspectives considérables de croissance. La manipulation d’images comme de vidéos ou de textes permet de fonder des théories sur des propos faussement attribués à telles ou telles autorités. En effet, il est possible de créer une voix imitée d’une personne de manière parfaitement crédible et de l’associer à une vidéo également manipulée. Les deepfakes peuvent, notamment en période électorale ou d’instabilité politique, être à l’origine de désordres sociétaux conséquents.

Les exemples commencent d’ailleurs à apparaître. Winnie Heartstrong, femme politique américaine, titulaire d’un doctorat en communication politique atteste que Georges Floyd ne serait pas mort lors de son interpellation en 2020 mais dès 2016. Selon le rapport qu’elle a produit, les vidéos résulteraient de « deepfakes » par la technique de permutation de visages (« faceswap ») alors que le reste de la video ou de l’image serait demeuré inchangée. Cela aurait été le cas que ce soit pour Georges Floyd ou le policier Derek Chauvin. Ce type de techniques comme de théories ne vont cesser de croître tant pour faire revivre des morts que pour prêter des propos jamais tenus à des autorités politiques ou pour créer des vidéos contrefaites en vue d’attester telle ou telle théorie.

Alors que modifier une vidéo en synchronisant le texte et l’image résultait il y a quelques années d’une expertise professionnelle, les deepfakes rendent la manipulation accessible à tout un chacun. La confiance en l’information, déjà entachée depuis l’essor des réseaux sociaux, devrait encore baisser alors que la diffusion de fausses informations va considérablement croître et s’intensifier dans les années à venir.                                                                                                                

L’exploitation de faux est un outil connu en propagande politique, domaine que les deepfakes n’hésitent désormais pas à investir. Il est en effet parfaitement envisageable, comme nous pouvons déjà le constater sur le web, de substituer un homme politique par un autre, de mettre en scène le président d’une nation dans une situation à laquelle il n’a jamais pris part. Ce type de manipulation ne manquera pas d’influencer les campagnes électorales et les relations internationales considérant le temps court de ces périodes et la célérité de diffusion d’une fausse information. Ces deux facteurs réunis compliquent singulièrement la capacité à détecter l’imposture dans des délais utiles si on ne s’y prépare pas.  

Malheureusement, les GAN offrent aussi des possibilités d'imposture malveillante démultipliées sur des cas d'usage variés incluant toute forme de créativité humaine. Ces nouvelles possibilités de manipulations ouvrent la porte à un rebond de théories complotistes qui trouvent dans les réseaux antagonistes génératifs des perspectives considérables de croissance.

L’IA, le remède à l’IA

A l’heure des « deepfakes », le combat contre la désinformation sera plus difficile que jamais. Comme dans de nombreuses situations, la meilleure, voire la seule, solution pour faire face à une manipulation exploitant les possibilités de l’IA est d’utiliser une autre IA.

Le challenge qui se dresse en terme d’authentification est de développer un système capable de détecter les images ou les vidéos contrefaites dans leur globalité comme de manière partielle. La solution peut résider dans la capacité d’ un système à être entraîner sur des vidéos truquées pour en déterminer les invariants identifiants. Malheureusement, à ce jour les meilleurs taux atteint pour une authentification effectuée en aveugle, c’est à dire à partir de techniques non connus du système,  ne dépasse guère les 70 %.  Si le système tente de détecter une vidéo contrefaite dont il connaît la technique d’imposture, le niveau de détection s’élève alors au-delà des 80 %.              

Face aux vidéos contrefaites, l’intelligence artificielle, en ayant appris à partir de nombreuses vidéos réelles, le comportement d’un individu peut déceler des comportements inhabituels et proposer un score de vraisemblance d’authenticité. Il s’agit d’examiner la gestuelle ou le discours tant sur la forme que sur le fond.

Il est également possible de travailler sur ce qui distingue une vraie d’une fausse vidéo, en se concentrant sur des anomalies comme des inconsistances, présentes dans un espace fréquentiel et temporel qui témoignent de la modification de la vidéo à travers la cohérence de succession des trames. Le challenge est conséquent, les outils comme les méthodes sont encore à améliorer mais le temps presse pour ne pas sombrer dans un monde de la désinformation plus encore que de l’ information non validée ou erronée.   
                                          
Les deepfakes devraient ainsi bouleverser notre rapport à la donnée comme à la réalité car les risques de corruption vont devenir majeurs. La distinction entre le vrai et le faux sera  particulièrement difficile à effectuer. Durant cet âge de l’intelligence artificielle, la lutte contre la désinformation devient un enjeu majeur au risque de voir se développer des théories complotistes illustrées  par de faux témoignages de plus en plus vraisemblables. Pour faire face à ces impostures qui constitueront un terreau inépuisable aux théories complotistes, l’intelligence artificielle constitue certainement le meilleur moyen de défense et de prévention à  la fois en terme de pertinence et de célérité d’actions. Il est temps aujourd’hui et même urgent de se mettre en mesure de contrer les « deepfakes » dont la réalisation est à la portée de tous. La Gendarmerie nationale s’est engagée dans ce défi de la détection des manipulations en développant des méthodes fondées sur l’intelligence artificielle. 

colonel patrick perrot

Colonel Patrick Perrot

EXPERT IA ET ENJEUX DE SÉCURITÉ INSTITUT EUROPIA

Leave A Comment