Bias in der KI erkennen und reduzieren: IDnow bringt Forschungserkenntnisse in die Praxis

Im Rahmen des EU-geförderten Projekts MAMMOth zeigt IDnow, wie sich Verzerrungen in KI-Systemen erkennen und reduzieren lassen – ein wichtiger Schritt hin zu vertrauenswürdiger digitaler Identitätsprüfung.

München, 30. Oktober 2025 – Das EU-geförderte Projekt MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems) hat nach drei Jahren intensiver Arbeit zentrale Ergebnisse zur Verringerung von Verzerrungen in KI-Systemen veröffentlicht. Gefördert durch das EU-Programm Horizon Europe, vereint das Projekt Organisationen aus Wissenschaft, Wirtschaft und Gesellschaft aus ganz Europa.

IDnow, einer der führenden europäischen Anbieter von Plattformen für Identitätsprüfung, war als Industriepartner direkt an der Umsetzung des Projekts beteiligt. Durch gezielte Forschung und Tests wurde ein optimiertes KI-Modell entwickelt, um Verzerrungen bei der Gesichtserkennung deutlich zu reduzieren. Dieses Modell ist nun in die Lösungen von IDnow integriert.

Algorithmische Verzerrung in der Praxis bekämpfen

Gesichtserkennung mithilfe künstlicher Intelligenz kommt zunehmend für die Identitätsprüfung im Internet zum Einsatz, beispielsweise bei der Eröffnung eines Bankkontos oder der Registrierung für Carsharing. Dazu können Personen ein Bild ihres Gesichts aufnehmen und eine KI gleicht dieses dann mit dem Ausweisfoto ab. Solche Systeme können jedoch Bias aufweisen, die bei bestimmten demografischen Gruppen zu schlechteren Ergebnissen führen. Dies liegt an der Unterrepräsentation von Minderheiten in öffentlichen Datensätzen, was zu höheren Fehlerraten für Menschen mit dunkleren Hauttönen führen kann.  

Wie stark diese Diskrepanzen sein können, zeigte eine Studie des MIT Media Lab: Während Gesichtserkennungssysteme bei hellhäutigen Männern eine Fehlerquote von nur 0,8 Prozent aufwiesen, lag sie bei dunkelhäutigen Frauen bei 34,7 Prozent. Diese Zahlen machen deutlich, wie unausgewogen viele KI-Systeme sind – und wie dringend es ist, auf diversere Daten zu setzen. 

Im Rahmen von MAMMOth arbeitete IDnow gezielt daran, solche Verzerrungen in der Gesichtserkennung zu identifizieren und zu minimieren – mit dem Ziel, Fairness und Zuverlässigkeit gleichermaßen zu erhöhen.

Forschungsprojekte wie MAMMOth sind entscheidend, um die Lücke zwischen wissenschaftlicher Innovation und praktischer Anwendung zu schließen. Durch die Zusammenarbeit mit führenden Expertinnen und Experten konnten wir unsere Technologie gezielt weiterentwickeln und gerechter gestalten.

Montaser Awal, Director of AI & ML bei IDnow

Technologischer Fortschritt mit messbarem Impact

Im Rahmen des Projekts untersuchte IDnow mögliche Verzerrungen in seinem Gesichtserkennungsalgorithmus, entwickelte eigene Ansätze, um diese Biases zu reduzieren, und testete zusätzlich Methoden zur Bias-Mitigation, die von anderen Projektpartnern vorgeschlagen wurden. 

Da Ausweisfotos häufig von den ausstellenden Behörden farblich angepasst werden, kann beispielsweise der Hautton eine herausfordernde Rolle spielen, insbesondere wenn die Kalibrierung nicht für dunklere Hauttöne optimiert ist. Eine solche Fehlkalibrierung kann zu Unstimmigkeiten zwischen einem Selfie-Bild und dem Aussehen der Person auf einem Ausweisfoto führen. 

Um dieses Problem zu lösen, verwendete IDnow eine Style-Transfer-Methode, die den Trainingsdatensatz erweitert. Dadurch wurde das Modell widerstandsfähiger gegenüber unterschiedlichen Bedingungen – und die Verzerrung zulasten dunklerer Hauttöne konnten deutlich reduziert werden. 

Tests auf öffentlichen und unternehmenseigenen Datensätzen zeigten, dass sich durch die neue Trainingsmethode eine Steigerung der Verifikationsgenauigkeit um acht Prozent erzielen ließ – bei gleichzeitig nur 25 Prozent des ursprünglichen Trainingsdatenvolumens. Noch bedeutender: Der Genauigkeitsunterschied zwischen Personen mit hellerer und dunklerer Hautfarbe konnte um über 50 Prozent reduziert werden – ein wichtiger Schritt hin zu gerechterer Identitätsprüfung ohne Kompromisse bei Sicherheit oder Nutzerfreundlichkeit. 

Das daraus resultierende verbesserte KI-Modell wurde im März 2025 in die Lösungen von IDnow zur Identitätsprüfung integriert und ist seitdem produktiv im Einsatz.

Standard für verantwortungsvolle KI setzen

Neben den konkreten Produktverbesserungen plant IDnow, das im Projekt entwickelte Open-Source-Toolkit MAI-BIAS künftig in internen Entwicklungs- und Evaluierungsprozessen zu nutzen. Damit kann Fairness bereits vor der Veröffentlichung neuer KI-Modelle umfassend geprüft und dokumentiert werden – ein wichtiger Beitrag zu verantwortungsbewusster KI-Entwicklung. 

„Bias zu adressieren, stärkt nicht nur Fairness und Vertrauen, sondern macht unsere Systeme auch robuster und anpassungsfähiger“, ergänzt Montaser Awal. „Das stärkt das Vertrauen in unsere Modelle und zeigt, dass sie für verschiedene Nutzergruppen in unterschiedlichen Märkten gleichermaßen zuverlässig funktionieren.“  

Play