Une intelligence artificielle crée des visages ultraréalistes de personnes qui n’existent pas

Le Figaro – 18/02/2019 – Lucie Ronfaut –
Une intelligence artificielle crée des visages ultraréalistes de personnes qui n'existent pasCes visages, générés automatiquement, ne sont pas des vrais. thispersondoesnotexist.com
Créé par un ingénieur d’Uber, le site ThisPersonDoesNotExist («cette personne n’existe pas») créé de toutes pièces des photos de visages de personnes qui ne sont pas réelles.
Le site s’appelle «ThisPersonDoesNotExist», littéralement «cette personne n’existe pas». Pourtant, au début, on a du mal à y croire. On rafraîchit la page plusieurs fois, pour faire apparaître de nouvelles photos. Puis, on finit par percevoir des défauts. Des yeux trop oranges, des veines apparaissant à des endroits étranges. Il n’empêche que, la plupart du temps, les photos ont l’air bien réelles.
C’est l’expérience troublante que propose Philip Wang, un ingénieur travaillant au sein de la société Uber. Techniquement, son site utilise un logiciel développé par des chercheurs chez Nvidia, une entreprise américaine spécialisée dans les cartes graphiques et leur utilisation dans le contexte d’intelligences artificielles. Baptisé «StyleGAN», il exploite ce que l’on appelle des «réseaux antagonistes génératifs» (GAN), une classe d’algorithme d’apprentissage automatique. Cette méthode laisse un programme d’intelligence artificielle générer lui-même des images ou des vidéos, à base de données brutes, et selon une commande (ici: créer un visage), tandis qu’un autre programme juge si le résultat est «faux» ou «vrai», c’est-à-dire s’il ressemble à la réalité, à partir d’exemple d’une autre base de données. Cet «affrontement» permet d’obtenir des images ou des vidéos très réalistes.
La menace du «deep fake»
Le but de «ThisPersonDoesNotExist» est d’éduquer le grand public aux progrès de l’intelligence artificielle dans la manipulation des images. «La plupart des gens ne comprennent pas à quel point les intelligences artificielles sont bonnes à créer de fausses images», explique Philip Wang dans une interview accordée au site spécialisé Motherboard. «StyleGAN», qui est disponible en open-source (c’est-à-dire utilisable et modifiable gratuitement) depuis peu, a été utilisé pour d’autres expériences, comme pour générer automatiquement des personnages d’anime, une catégorie de dessins animés provenant du Japon.
Même s’il peut inquiéter de prime abord, ce type de technologies peut être utilisé à des fins tout à fait inoffensives, comme pour créer des effets spéciaux ultraréalistes dans des films. Mais le sujet de la manipulation des images évoque surtout l’enjeu du «deep fake», un type de technologie reposant sur des algorithmes d’intelligence artificielle et permettant d’imiter le visage ou la voix d’une vraie personne, potentiellement à des fins de nuisance ou de propagande. Là encore, il s’agit d’exploiter des réseaux antagonistes génératifs, pour un résultat très réaliste. On peut utiliser cette technique pour «coller» un vrai visage sur le corps d’une actrice dans un film pornographique. Ou faire réciter un texte absurde à Barack Obama. À une époque où l’on s’inquiète de la prolifération des «fake news», comment se préparer à l’ère des fausses personnes ?

A propos werdna01

Hors des paradigmes anciens et obsolètes, libérer la parole à propos de la domination et de l’avidité dans les domaines de la politique, de la religion, de l’économie, de l’éducation et de la guérison, étant donné que tout cela est devenu commercial. Notre idée est que ces domaines manquent de générosité et de collaboration.
Cet article, publié dans Médias, est tagué . Ajoutez ce permalien à vos favoris.