ARIADNEXT devient IDnow.En savoir plus.

IA générative et deepfakes : menace ou opportunité ? Entretien avec Sébastien Marcel

2023 arrive à son terme dans quelques semaines et déjà 2024 réserve son lot de surprise. Sébastien Marcel, Professeur et Chercheur dans le domaine de la sécurité biométrique et de la protection de la vie privée, nous parle de l’essor de l’IA générative ainsi que des opportunités et menaces qu’elle représente.

Nous entendons partout en ce moment des termes comme “deepfakes” et “IA générative” sans forcément savoir ce que ces notions englobent. Pouvez-vous nous les expliquer ?  

La notion de deepfakes, ou comme on l’appelle, hyper trucage en français, peut se décliner sous différentes formes :  

  1. Les “Face swap” : cette technique va permettre d’usurper l’identité d’une personne ou bien de faire de la désinformation en cartographiant deux visages et en les inversant. L’exemple des vidéos de Tom Cruise sur TikTok est assez parlant. L’imitateur utilise le Face swap pour se faire passer pour l’acteur dans le but de divertir, mais ce n’est malheureusement pas toujours le cas.  
  1. La synthèse complète d’image : cette technique a pour but de générer une image entière de manière artificielle. Elle est bien souvent utilisée à des fins de désinformation, du spam, du fishing ou encore pour créer du matériel utilisé dans le but d’incriminer quelqu’un.  

Bien que ces deux formes de deepfakes soient différentes, elles peuvent être utilisées comme vecteur d’attaque. 

L’intelligence artificielle générative quant à elle, comme ChatGPT, permet de générer du texte, des images ou encore des vidéos. Elle peut également être utilisée pour générer des deepfakes.  

Quelles ont été les nouvelles « tendances » de deepfakes que vous avez pu observer cette année ?  

Les deepfakes deviennent audiovisuels. En plus d’augmenter constamment en qualité visuelle, il est désormais possible de convertir l’audio d’une vidéo. Grâce au deeplearning et à la création de modèles spécifiques, il est possible de reproduire la voix de quelqu’un d’autre. D’un côté sur la vidéo on va utiliser la technique du Face swap par exemple, et de l’autre l’audio va être traité séparément via une technique similaire, et on va alors pouvoir faire dire à quelqu’un ce qu’il n’a pas dit. Cette technique peut représenter un réel risque en termes de fraude, notamment si le fraudeur arrive à le faire en temps réel.  

Quelles méthodes de détection peuvent être utilisées pour repérer plus facilement ces deepfakes audiovisuels ? 

Il n’existe pas encore de méthodes qui permettent de le faire directement. Pour l’instant les parties vidéo et audio peuvent être traitées séparément puis combinées ensuite pour détecter les deepfakes audiovisuels.  

Sur la partie audio, on va essayer de trouver des artéfacts acoustiques qui proviendraient d’un générateur, par exemple une voix un peu trop métallique ou un manque de rythme. Ces éléments peuvent parfois tromper un système automatique mais ne tromperont pas l’humain. On pourrait également envisager à l’avenir d’exploiter la multidétection, c’est à dire mettre en place plusieurs détecteurs spécifiques et les faire fonctionner simultanément afin d’obtenir les meilleurs résultats, c’est ce qu’on appelle du ensemble learning. 

Sur la partie vidéo, si on prend l’exemple du Face swap, on va également chercher les artéfacts. La plupart du temps les vidéos qui utilisent cette technique sont imparfaites et les générateurs laissent des traces notamment au niveau des pixels de l’image. En effet la fréquence de ces pixels générés n’est pas exactement la même que sur des images naturelles. Ces images sont trop “propres” pour être vraies, et c’est comme cela qu’on peut également les détecter.  

Toutefois, avec les nouvelles technologies d’image par diffusion, il devient de plus en plus difficile de détecter la synthèse complète d’image.  

Quelles menaces représentent la croissance fulgurante des IA génératives comme ChatGPT selon-vous, notamment en termes de fraude ? 

L’IA générative est un outil très pratique pour les fraudeurs pour créer des tentatives de fishing ou d’autres types d’arnaques. D’une part, avec des systèmes comme ChatGPT on peut générer des contenus bien écrits et réalistes qui peuvent facilement tromper les individus. On peut également imaginer à terme des bots qui interagiraient directement avec les internautes dans le but de leur demander de l’argent par exemple ou des données confidentielles.  

On peut mentionner également la fraude documentaire. Lors d’une entrée en relation à distance, pour l’ouverture d’un compte par exemple, l’utilisateur doit soumettre un document d’identité, et, avec les nouveaux outils qui s’offrent à nous, on peut désormais utiliser les modèles génératifs d’IA pour créer de faux documents dans le but de se faire passer pour quelqu’un d’autre. Parmi les différentes techniques pour y parvenir, les attaques de type morphing vont permettre de modifier le document d’identité d’une personne en y apposant une autre photo afin de contourner les contrôles, il s’agit d’une fraude par ressemblance

À l’inverse, quelles opportunités ont apporté les IA génératives depuis leur démocratisation ? 

Ces modèles de langage vont devenir une aide précieuse pour faire gagner du temps à beaucoup de gens, dans le milieu professionnel notamment. Je pense aux personnes qui travaillent dans l’industrie tertiaire. L’utilisation de ces modèles peuvent leur permettre d’optimiser du temps en éliminant les tâches chronophages de rédaction par exemple.  

Les modèles génératifs d’images quant à eux, comme StyleGAN, représentent un fort potentiel pour créer des données synthétiques. Pour des sociétés qui travaillent dans la reconnaissance d’images notamment, ou de visages, cela va leur permettre de créer des images réalistes afin d’entraîner leur base de données, sans avoir besoin d’utiliser de vraies images, qui, qui plus est, sont soumises à un certain nombre de restrictions sur l’usage et la collecte de données personnelles.  

Nous avons mentionné précédemment les risques engendrés par l’IA générative, notamment en termes de fraude. Quelles outils ou méthodes de contrôle faudrait-il mettre en place selon vous ?

Si on prend l’exemple de la désinformation dans le milieu journalistique ou sur internet, il faudrait presque que toutes les images diffusées puissent avoir un label attestant de leur nature, à savoir si elles ont été retouchées ou générées entièrement. Ce label servirait de garantie au public.  

Concernant les tentatives de fraude, c’est plus compliqué car la fraude peut venir de n’importe où. Toutefois les entreprises peuvent se prémunir contre la fraude en déployant des technologies de détection dans leur parcours client. Faire appel à un prestataire comme IDnow pour la vérification des documents et de l’identité des utilisateurs permettra de repérer plus facilement la fraude à l’identité et donc d’en éviter les conséquences.  

OpenAI a annoncé créer un outil pour la détection des images générées par une IA, pensez-vous que cela puisse, à terme, faire disparaitre les deepfakes ? 

Non, il y aura toujours des deepfakes. Tout ce qu’on peut faire c’est essayer d’endiguer, de prévenir et d’éduquer aux mieux les citoyens.  

Comment participez-vous à la lutte contre tous ces types de fraude à l’institut de recherche Idiap ?  

À l’Idiap nous travaillons sur l’usurpation d’identité en biométrie depuis 2008, nous avons été parmi les premiers à travailler sur la détection d’attaques par présentation. Ensuite sont apparus les deepfakes qui se sont imposés comme une nouvelle technologie pour créer des attaques par présentation par exemple, et nous travaillons actuellement sur leur détection.  

Afin de bien comprendre le fonctionnement d’une attaque, nous allons la reproduire nous-même, ce qui nous permet de voir dans un premier temps la manière dont l’attaque a été créée. Ensuite nous en créons plusieurs du même type afin d’évaluer de manière systémique et objective si cette attaque présente une vulnérabilité.  

Enfin, suite à cela nous créons des méthodes spécifiques afin de détecter les attaques. L’objectif de ces méthodes de détection étant bien sûr de décourager les fraudeurs.  

En plus d’un institut de recherche, l’Idiap est également un laboratoire de certifications. Nous testons les services de vérification des entreprises et nous leur fournissons des certificats ou des rapports d’évaluation afin de s’assurer que ces solutions répondent à un certain nombre de normes.  

Vous avez apprécié ce format ? Découvrez notre série d’interviews d’experts :

Par

IA générative et deepfakes : menace ou opportunité ? Entretien avec Sébastien Marcel 1

Mallaury Marie
Content Manager chez IDnow
Rejoignez Mallaury sur LinkedIn

Des questions ?

Contactez-nous!
Play