Dans le cadre du projet européen MAMMOth, IDnow démontre comment détecter et corriger les biais dans les systèmes d’IA, une étape essentielle vers une vérification d’identité numérique plus équitable.
Paris, le 30 octobre 2025 – Après trois années de recherche intensive, le projet européen MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems) publie ses conclusions sur la réduction des biais dans les systèmes d’intelligence artificielle. Financé par le programme Horizon Europe, ce projet réunit des partenaires issus du monde académique, de l’industrie et de la société civile : universités, centres de recherche, PME et organisations européennes.
IDnow, l’un des principaux fournisseurs européens de solutions de vérification d’identité, a contribué activement à la mise en œuvre du projet en tant que partenaire industriel. Grâce à des travaux de recherche ciblés et à de nombreux tests, un modèle d’IA optimisé a été développé pour réduire significativement les biais en reconnaissance faciale, désormais intégré aux solutions d’IDnow.
Lutter concrètement contre les biais algorithmiques
La reconnaissance faciale basée sur l’intelligence artificielle est de plus en plus utilisée pour la vérification d’identité en ligne, par exemple lors de l’ouverture d’un compte bancaire ou de l’inscription à un service d’autopartage. L’utilisateur prend une photo de son visage, que l’IA compare avec celle figurant sur sa pièce d’identité.
Cependant, ces systèmes peuvent présenter des biais, entraînant des résultats moins fiables pour certaines catégories de personnes. Cela s’explique notamment par la sous-représentation de certaines populations dans les bases de données publiques, ce qui peut générer des taux d’erreur plus élevés pour les personnes à la peau foncée.
Une étude du MIT Media Lab illustre l’ampleur de ces écarts ; si le taux d’erreur pour les hommes à peau claire n’était que de 0,8 %, il atteignait 34,7 % pour les femmes à peau foncée. Ces chiffres mettent en évidence le déséquilibre de nombreux modèles d’IA, et la nécessité urgente de s’appuyer sur des données plus diversifiées et représentatives.
Dans le cadre du projet MAMMOth, IDnow a précisément travaillé à identifier et à minimiser ces biais dans la reconnaissance faciale, avec pour objectif d’accroître à la fois l’équité et la fiabilité des processus d’identification.
Les projets de recherche comme MAMMOth sont essentiels pour rapprocher l’innovation scientifique de ses applications concrètes. En collaborant avec les meilleurs experts européens, nous avons pu perfectionner notre technologie et la rendre plus équitable.
Montaser Awal, Directeur de l’IA et du Machine Learning chez IDnow.
Des résultats concrets et mesurables
Dans le cadre du projet, IDnow a étudié les biais potentiels de son propre algorithme de reconnaissance faciale, développé ses propres solutions pour les réduire et testé différentes méthodes proposées par ses partenaires.
Les photos d’identité, par exemple, font souvent l’objet d’ajustements de couleur au moment de leur émission par les autorités. La teinte de peau peut alors poser un véritable défi, surtout lorsque la calibration n’est pas adaptée aux carnations plus foncées. Une telle mauvaise calibration peut entraîner des différences entre le selfie de l’utilisateur et la photo figurant sur son document d’identité.
Pour pallier ce problème, IDnow a utilisé une méthode de transfert de style permettant de générer des photos d’identité artificielles représentant une grande diversité de tons de peau. En élargissant ainsi le jeu de données d’apprentissage avec des images synthétiques, le modèle est devenu plus robuste face à des conditions variées, réduisant ainsi significativement les biais liés aux peaux foncées.
Les tests menés sur des ensembles de données publics et internes ont montré une hausse de 8 % de la précision de vérification, tout en utilisant seulement 25 % du volume initial de données d’entraînement. Plus encore, l’écart de précision entre peaux claires et foncées a diminué de plus de 50 %, une avancée majeure vers une vérification d’identité plus juste, sans compromis sur la sécurité ni sur l’expérience utilisateur.
Le modèle d’IA ainsi amélioré a été intégré aux solutions de vérification d’identité d’IDnow en mars 2025 et est depuis pleinement opérationnel.
Vers une norme de référence en matière d’IA responsable
Au-delà des améliorations concrètes apportées à ses produits, IDnow prévoit d’utiliser un toolkit, en open-source, MAI-BIAS, créé dans le cadre du projet, pour ses futurs développements internes. Cet outil permettra d’évaluer et de documenter la notion d’équité avant la mise sur le marché de tout nouveau modèle d’IA, une contribution clé à la conception d’une IA véritablement responsable.
« Réduire les biais ne renforce pas seulement l’équité et la confiance, cela rend aussi nos systèmes plus robustes et plus faciles à adopter », conclut Montaser Awal. « Cela accroît la confiance dans nos modèles et prouve qu’ils fonctionnent avec la même fiabilité pour tous les utilisateurs, sur différents marchés. »