Les systèmes de reconnaissance faciale discriminent-ils selon la couleur de peau ? IDnow s’attaque au problème avec MAMMOth, un projet de recherche collaboratif pour un monde connecté plus équitable.
L’intelligence artificielle optimise de nombreux processus, c’est indéniable. Mais elle peut aussi perpétuer, voire amplifier, des discriminations existantes lorsque les données utilisées sont biaisées. Un risque particulièrement préoccupant dans les systèmes de vérification d’identité.
En novembre 2022, IDnow et 12 partenaires européens (institutions académiques, associations et entreprises) ont lancé MAMMOth, un projet visant à réduire les biais dans les systèmes de vérification faciale.
Financé par l’Agence exécutive européenne pour la recherche sur trois ans (clôture : 30 octobre 2025), MAMMOth a étudié les biais existants et créé une boîte à outils pratique pour les ingénieurs IA, développeurs et data scientists. L’objectif : leur permettre de mieux identifier et atténuer les biais dans les jeux de données et les résultats algorithmiques.
Le projet a exploré trois cas d’usage :
- Vérification faciale dans les processus de vérification d’identité
- Évaluation de travaux académiques : des études montrent que sur certains moteurs de recherche, les femmes et les auteurs issus de pays ou d’universités moins prestigieux sont sous-représentés
- Évaluation des demandes de prêt
IDnow s’est concentré sur le premier cas d’usage, avec un objectif clair : développer des méthodes concrètes pour détecter et réduire les biais présents dans les algorithmes de reconnaissance faciale.
Diversité des données et biais dans la vérification faciale.
Même les modèles de vérification faciale les plus avancés sont généralement entraînés sur des jeux de données publics conventionnels, qui sous-représentent les minorités démographiques. Conséquence : des taux d’erreur nettement plus élevés pour les personnes à la peau foncée.
Pour remédier à cette problématique, IDnow a développé une méthode de « transfert de style », une technique qui génère de nouvelles photos de cartes d’identité en reproduisant les variations naturelles des données réelles – qualité d’image variable, conditions d’éclairage diverses, tons de peau différents.
En enrichissant le jeu de données d’entraînement avec ces images synthétiques, l’équipe a considérablement réduit le biais envers les visages à peau foncée et amélioré la robustesse du modèle face à une plus grande diversité de cas. Résultat : une expérience de vérification plus équitable pour tous les utilisateurs.
Au-delà de cette solution technique, le projet MAMMOth a produit la MAI-BIAS Toolkit, une boîte à outils permettant aux développeurs et chercheurs de :
- Détecter automatiquement les biais dans leurs datasets
- Analyser les performances par groupe démographique
- Appliquer des méthodes d’atténuation éprouvées
Ce projet nous a permis de passer de la détection du problème à des solutions opérationnelles. Nous appliquons désormais ces méthodes dans nos systèmes de production, ce qui se traduit par une expérience plus équitable pour tous nos utilisateurs, quelle que soit leur origine
Lara Younes, Engineering Team Lead et experte biométrie chez IDnow
Une IA plus équitable, une meilleure performance business.
Si la MAI-BIAS Toolkit a démontré des améliorations techniques claires en matière d’équité, ses bénéfices vont bien au-delà de l’éthique. IDnow a déjà commencé à intégrer ces enseignements dans ses systèmes de production, avec des impacts concrets mesurables.
Les 5 avantages clés d’une vérification faciale impartiale.
- Décisions plus équitables La MAI-BIAS Toolkit garantit à tous les utilisateurs, quelle que soit leur couleur de peau ou leur genre, des chances égales de réussir les vérifications faciales, sans qu’aucun groupe ne soit désavantagé.
- Sécurité renforcée En corrigeant les biais susceptibles de créer des failles de sécurité pour certains groupes démographiques, la MAI-BIAS Toolkit renforce la prévention de la fraude en harmonisant les taux de détection entre tous les utilisateurs.
- Transparence et IA explicable La boîte à outils fournit des informations exploitables sur les processus décisionnels des systèmes de vérification d’identité basés sur l’IA. Cela améliore la transparence et la responsabilité en clarifiant les raisons des décisions algorithmiques.
- Suivi continu des biais L’évaluation et la réduction des biais sont assurées en continu à chaque étape du développement de l’IA, garantissant l’équité des bases de données et des modèles à chaque mise à jour.
- Impact au-delà de la vérification d’identité Les méthodes développées dans le cadre du projet MAMMOth peuvent être appliquées à d’autres secteurs et cas d’usage, contribuant ainsi à la fiabilité globale des solutions d’IA.
« Alors que l’adoption mondiale des systèmes de vérification biométrique faciale continue de progresser dans tous les secteurs, il est essentiel que toute nouvelle technologie reste précise et équitable pour chaque individu, quelle que soit sa couleur de peau, son genre ou son âge », souligne Montaser Awal, Directeur IA & ML chez IDnow.
« L’héritage du projet MAMMOth se poursuivra grâce à ses outils open source, ses ressources académiques et ses cadres méthodologiques. Les méthodesdéveloppées peuvent être appliquées bien au-delà de la vérification d’identité, contribuant ainsi à la fiabilité des solutions d’IA dans de nombreux secteurs », ajoute Montaser.
Pour une analyse technique approfondie par nos chercheurs, consultez notre article « Vers une vérification faciale inclusive : réduire les biais démographiques ».
Par

Jody Houton
Senior Content Manager chez IDnow
Rejoignez Jody sur LinkedIn