Intelligence artificielle : ces visages n'existent pas
Un site web insolite, This Person Does Not Exist, a récemment fait son apparition sur la toile. Le principe est simple : à chaque actualisation de la page, de nouveaux visages d’hommes ou de femmes de tous âges se chargent à l’écran. Leur particularité ? Ils sont créés de toutes pièces, générés par un programme d’intelligence artificielle. Virginie Tournay, politologue et directrice de recherche au CNRS, répond aux questions d’Émile et nous dévoile ce qui se profile en sous-main : une nouvelle « guerre des données ».
Par Anaïs Richard
Ils vous semblent bien réels, pourtant ces gens n’existent pas. Ces visages ont été générés par une toute nouvelle intelligence artificielle (IA), créée en décembre dernier par Nvidia, leader sur le marché des cartes graphiques. Cet algorithme, surnommé StyleGAN (Style-Based Generator Architecture for Generative Adversarial Networks), combine l’utilisation de deux réseaux neuronaux. Le premier crée les visages en mélangeant des éléments de photos réelles, puis le second « juge » la crédibilité des visages générés et valide ou non le résultat.
Philip Wang, ancien ingénieur chez Uber, a repris cette IA en l’intégrant à un site web, This Person Does Not Exist. Son objectif ? Alerter sur les potentielles dérives de la manipulation d’image. Malgré quelques ratés ponctuels, les résultats sont bluffants de réalisme.
Initialement développée à destination des professionnels du jeu vidéo et du cinéma, cette IA soulève néanmoins des questions en matière de cyber-sécurité. Cette technologie ouvre un large champ des possibles dans la manipulation des données et de l’information, utilisant des mécanismes similaires aux deep fakes. Ces vidéos utilisent des images artificiellement générées par un ordinateur en les superposant sur des vidéos réelles. La fausse vidéo de Barack Obama insultant Donald Trump, publiée par Buzzfeed, a montré le potentiel viral de telles publications. Ces nouvelles technologies remettent en cause une équation à laquelle nous étions habitués jusqu’à présent — une vidéo est preuve tangible — et mettent en lumière la nécessité croissante de développer de nouvelles techniques de vérification de l’information.
CINQ QUESTIONS À VIRGNIE TOURNAY (CNRS)
En quoi l’avènement du numérique a-t-il bouleversé la contrefaçon d’image ?
Virginie Tournay : Dans l'histoire de la data science, c'est surtout la capacité à programmer des modèles génératifs qui a modifié la donne. La possibilité d’entraîner des réseaux de neurones artificiels pour créer, avec plus ou moins de supervision, des objets ou des images a ouvert un champ des possibles quasi infini... En présentant plusieurs dizaines ou centaines de milliers d'images à un modèle génératif, il devient possible « d'entraîner » le réseau à générer des images créées de toutes pièces par des algorithmes.
Après l’ère des fake news, doit-on craindre l’ère des fake faces ?
La contrefaçon de photos, qu'il s'agisse ou non de célébrités, n'est pas nouvelle en soi. Simplement, à la différence de montages plus artisanaux, on peut penser que la détection des fake faces sera plus difficile à prouver. Mais là encore, on peut utiliser les outils de l'intelligence artificielle pour lire un agencement de pixels et poser la probabilité que telle image ou telle photo soit vraie. Le système de génération automatique est loin d'être parfait : il peut y avoir des micro-distorsions, de petites anomalies dans les suites de pixels. Il me semble que l'on assiste aujourd'hui à une véritable course à « l'armement algorithmique » entre les cyber-attaquants et ceux qui sont en charge d'assurer la sécurité et la fiabilité de nos systèmes. Le cyberharcèlement à grande échelle est aussi un problème.
Quelles menaces en matière de cybercriminalité ?
Au-delà de la contrefaçon d'image, ces algorithmes d'intelligence artificielle appartenant à la classe des Generative Adversial Networks (GANs) nécessitent d’être examinés. Ils ont la capacité de générer des données de ressemblance, de s’entraîner à partir de données de départ beaucoup moins importantes que d'autres. Cela veut dire que ceux qui manient ces algorithmes peuvent repérer beaucoup plus rapidement des failles de sécurité de sites web, faciliter les usurpations d'identité (comme de faux comptes Facebook, etc.). Mais on peut également imaginer que l'utilisation raisonnée de ces algorithmes par les services de lutte contre la cybercriminalité constitue aussi un moyen d'améliorer la sécurité des sites, de détecter des anomalies et des comportements suspects. Nous atteignons une étape extrêmement sophistiquée de la guerre des données...
Comment contrôler les potentielles dérives liées aux deep fakes ?
Il faudra nécessairement une régulation définie à un niveau supranational (européen au minimum) pour intervenir rapidement lorsque un deep fake se propage. Le problème est le décalage entre sa détection (ainsi que la certification de cette anomalie) et son éradication sur le web. Cela suppose la coopération active de nos GAFA en réponse à ces fake-campagnes.
Je crois qu'il faut également souligner le côté positif de ces possibilités technologiques, comme la capacité à augmenter la résolution d'images provenant de caméras de surveillance, dans l'optique d'identifier des personnes qui ont commis des délits. En tout cas, cela suppose de réfléchir à une gouvernance des algorithmes qui doit se construire en trouvant le juste milieu entre un contrôle des productions et la liberté de création. Tout cela prendra du temps. Nous sommes dans une période de transition qui est par définition inconfortable, parce que nous commençons tout juste à donner une réalité sociale à ces outils techniques.
Quelles applications commerciales potentielles pour cette technologie de création de visages ?
Si la génération de visages est l'application la plus visible de cette technologie, il y en a bien d'autres, comme l'amélioration de la résolution d'images à finalité esthétique, celle du design de nos productions industrielles (aviation…) à partir de banques de données comportant des dessins techniques avec des contraintes spécifiques comme des matériaux ou des composés différents. Il devient possible de prévoir ce qui peut se passer à t+1, comme la survenue d'accidents ou l'évolution d'un système complexe, en donnant à l'algorithme génératif la possibilité d'anticiper la prochaine image d'une vidéo.
Le réalisme de ces images de synthèse étant impressionnant, on peut également imaginer que la création automatique de visages et de corps soit utilisée dans les métiers du design et du mannequinat pour tester et mettre en valeurs des vêtements ou des cosmétiques... ●