Vorurteile bei KI-gestützter Gesichtserkennung abbauen.

Wie IDnow mit dem neuesten kollaborative Forschungsprojekt MAMMOth die vernetzte Welt für alle gerechter macht – unabhängig vom Hautton.

Die Fähigkeit von Künstlicher Intelligenz (KI), bestimmte Prozesse zu optimieren, ist gut dokumentiert. Dennoch bestehen weiterhin berechtigte Bedenken hinsichtlich des Zusammenhangs zwischen unfairer und ungleicher Datenverarbeitung sowie diskriminierenden Praktiken und sozialer Ungleichheit.

Gemeinsam mit zwölf europäischen Partnern – darunter akademische Institutionen, Verbände und Privatunternehmen – startete IDnow im November 2022 das MAMMOth-Projekt. Dieses zielt darauf ab, Wege zur Bekämpfung von Vorurteilen in Gesichtserkennungssystemen zu erforschen.

Das von der European Research Executive Agency geförderte Projekt, das am 30. Oktober 2025 abgeschlossen wurde, verfolgt das Ziel, bestehende Vorurteile zu untersuchen und ein Toolkit für KI-Ingenieure, Entwickler und Data Scientists zu entwickeln. Mithilfe dieses Toolkits sollen sie Vorurteile in Datensätzen und Algorithmusergebnissen besser identifizieren und mindern können.

Drei Anwendungsfälle wurden identifiziert:

  1. Gesichtserkennung bei Identitätsprüfprozessen.
  2. Bewertung wissenschaftlicher Arbeiten. Im akademischen Bereich hängt der Ruf eines Forschers oft von der Sichtbarkeit seiner wissenschaftlichen Veröffentlichungen und deren Zitierhäufigkeit ab. Studien zeigen, dass Frauen und Autoren aus weniger renommierten Ländern bzw. Universitäten in bestimmten Suchmaschinen tendenziell weniger vertreten sind.
  3. Bewertung von Kreditanträgen.

IDnow konzentrierte sich vor allem auf den Anwendungsfall der Gesichtserkennung, um Methoden zur Reduzierung algorithmischer Vorurteile zu implementieren.

Datenvielfalt und Voreingenommenheit bei der Gesichtserkennung.

Selbst die modernsten Gesichtserkennungsmodelle werden in der Regel mit herkömmlichen öffentlichen Datensätzen trainiert, in denen Minderheiten unterrepräsentiert sind. Ein Mangel an Datenvielfalt führt dazu, dass die Modelle bei unterrepräsentierten Gruppen nicht zuverlässig funktionieren. Das hat höhere Fehlerquoten bei Menschen mit dunklerer Haut zur Folge.

Um dieses Problem zu lösen, schlug IDnow vor, eine „Style Transfer“-Methode zu verwenden, um neue Ausweisfotos zu generieren, die die natürlichen Variationen und Inkonsistenzen realer Daten nachahmen. Durch die Erweiterung des Trainingsdatensatzes mit synthetischen Bildern wird die Robustheit des Modells durch eine größere Bandbreite an Variationen erhöht und die Voreingenommenheit gegenüber dunkleren Hauttönen weiter verringert. Dadurch sinkt die Fehlerquote für Nutzer mit dunkler Haut signifikant und die Nutzererfahrung wird für alle verbessert.

Durch die intensive Zusammenarbeit von IDnow und seinen Partnern wurde das MAI-BIAS Toolkit entwickelt, das Entwickler und Forscher dabei unterstützt, Vorurteile in Datensätzen und KI-Modellen zu erkennen, zu verstehen und zu mindern.

Wir sind stolz darauf, Teil eines so wichtigen kollaborativen Forschungsprojekts gewesen zu sein. Wir haben schon lange erkannt, wie wichtig vertrauenswürdige, vorurteilsfreie Algorithmen zur Gesichtserkennung sind. Diese Herausforderung wollten IDnow und die MAMMOth-Partner meistern – und wir freuen uns, dass uns dies gelungen ist.

Lara Younes, Engineering Team Lead und Biometrics Expert bei IDnow.

Was Nutzern hilft, hilft auch Unternehmen.

Das MAI-BIAS-Toolkit hat sich nachweislich als wirksames Mittel zur Verbesserung der Fairness und Leistungsfähigkeit von Modellen erwiesen. Die endgültige Validierung wird jedoch, wie so oft, in der Fähigkeit liegen, konkrete geschäftliche Vorteile zu liefern.

IDnow hat bereits begonnen, seine Systeme mit den Erkenntnissen aus dem Projekt neu zu trainieren, um sicherzustellen, dass unsere Lösungen nicht nur technisch, sondern auch ethisch und sozial verantwortungsvoll weiterentwickelt werden.

Die fünf größten Vorteile der vorurteilsfreien Gesichtserkennung von IDnow:

  1. Gerechtere Entscheidungen: Das MAI-BIAS Toolkit stellt sicher, dass alle Nutzer – unabhängig von Hautfarbe oder Geschlecht – die gleichen Chancen bei der Gesichtserkennung erhalten und keine Gruppe benachteiligt wird.
  2. Reduziertes Betrugsrisiko: Das Toolkit adressiert Vorurteile, die Sicherheitslücken für Nutzer mit dunkler Haut schaffen könnten, und stärkt so die Betrugsprävention. Dadurch wird eine ausgeglichene Betrugserkennungsrate über alle Demografien hinweg erreicht.
  3. Erklärbare KI: Wissen ist Macht – das Toolkit liefert umsetzbare Einblicke in die Entscheidungsprozesse KI-basierter Identitätsprüfungen und erhöht so Transparenz und Nachvollziehbarkeit.
  4. Bias-Monitoring: Die kontinuierliche Bewertung und Minderung von Vorurteilen werden in allen Entwicklungsphasen der KI unterstützt. Dadurch bleiben Datenbanken und Modelle mit jedem Update fair.
  5. Bias-Reduzierung: Die Empfehlungen des Toolkits ermöglichen die branchenübergreifende Anwendung der im MAMMOth-Projekt entwickelten Forschungsmethoden und tragen so zu vertrauenswürdigeren KI-Lösungen bei. 

„Mit der zunehmenden globalen Verbreitung biometrischer Gesichtserkennungssysteme ist es entscheidend, dass neue Technologien für alle Menschen – unabhängig von Hautfarbe, Geschlecht oder Alter – fair und präzise bleiben“, sagt Montaser Awal, Director of AI & ML bei IDnow.

„Das Vermächtnis des MAMMOth-Projekts wird durch Open-Source-Tools, wissenschaftliche Ressourcen sowie politische Rahmenbedingungen weiterleben“, so Montaser.

Für einen tieferen technischen Einblick in das Projekt lesen Sie unseren Blog „Eine künstliche Lösung? Herausforderungen durch Vorurteile bei der Identitätsverifizierung.

Play