IDnow integriert Ergebnisse des EU-Projekts MAMMOth, um Verzerrungen in Gesichtserkennungssystemen zu reduzieren, die vor allem dunkelhäutige Frauen diskriminieren. IDnow integrates findings from the EU project MAMMOth to reduce bias in facial recognition systems that primarily discriminate against women with dark skin.
Das EU-geförderte Forschungsprojekt MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems) hat nach drei Jahren seine Ergebnisse zur Reduzierung von Verzerrungen in KI-Systemen vorgelegt. An dem durch Horizon Europe finanzierten Projekt waren Organisationen aus Wissenschaft, Wirtschaft und Gesellschaft aus ganz Europa beteiligt.

Der Münchner Identitätsprüfungsanbieter IDnow GmbH war als Industriepartner an der Umsetzung beteiligt und hat ein überarbeitetes KI-Modell entwickelt, das Verzerrungen bei der Gesichtserkennung verringern soll. Das Modell ist seit März 2025 in den Produkten des Unternehmens im Einsatz.

Bekannte Probleme bei Gesichtserkennung

Gesichtserkennungssysteme werden zunehmend für die Online-Identitätsprüfung eingesetzt, etwa bei Kontoeröffnungen oder Carsharing-Anmeldungen. Dabei gleicht eine KI ein Selfie mit dem Ausweisfoto ab. Solche Systeme können jedoch algorithmische Verzerrungen aufweisen, die bei bestimmten demografischen Gruppen zu höheren Fehlerquoten führen.

Eine Studie des MIT Media Lab zeigte das Ausmaß des Problems: Während die Fehlerrate bei hellhäutigen Männern bei 0,8 Prozent lag, erreichte sie bei dunkelhäutigen Frauen 34,7 Prozent. Die Diskrepanz wird auf die Unterrepräsentation von Minderheiten in öffentlichen Trainingsdatensätzen zurückgeführt.

Anpassung durch Style-Transfer-Methode

Im Rahmen von MAMMOth untersuchte IDnow Verzerrungen in seinem Gesichtserkennungsalgorithmus und testete verschiedene Ansätze zur Reduzierung. Ein Problem liegt in der farblichen Anpassung von Ausweisfotos durch Behörden, die zu Unstimmigkeiten zwischen Selfie und Ausweisfoto führen kann – besonders bei dunkleren Hauttönen.

Das Unternehmen setzte eine Style-Transfer-Methode ein, die den Trainingsdatensatz erweiterte. Laut IDnow verbesserte sich dadurch die Verifikationsgenauigkeit um acht Prozent – bei nur einem Viertel des ursprünglichen Trainingsdatenvolumens. Der Genauigkeitsunterschied zwischen Personen mit hellerer und dunklerer Hautfarbe sei um über 50 Prozent reduziert worden.

„Durch die Zusammenarbeit mit Expertinnen und Experten konnten wir unsere Technologie weiterentwickeln“, sagte Montaser Awal, Director of AI & ML bei IDnow.

Toolkit für künftige Entwicklungen

Das Projekt hat das Open-Source-Toolkit MAI-BIAS entwickelt. IDnow plant, dieses künftig in internen Entwicklungs- und Evaluierungsprozessen zu nutzen, um Fairness bereits vor der Veröffentlichung neuer KI-Modelle zu prüfen.

After three years, the EU-funded research project, MAMMOth (Multi-Attribute, Multimodal Bias Mitigation in AI Systems), presented its findings on reducing bias in AI systems. The project involved organizations from science, industry, and society across Europe.

Munich-based identity verification provider IDnow participated in the project as an industry partner, developing a revised AI model designed to reduce bias in facial recognition. This model has been used in the company’s products since March 2025.

Known Problems with Facial Recognition

Facial recognition systems are increasingly being used for online identity verification, for example, when opening accounts or registering for car sharing. An AI compares a selfie with the ID photo. However, such systems can exhibit algorithmic biases that lead to higher error rates for certain demographic groups.

A study by the MIT Media Lab revealed that while the error rate was 0.8 percent for light-skinned men, it was 34.7 percent for dark-skinned women. This discrepancy is attributed to the underrepresentation of minorities in public training datasets.

IDnow investigated biases in its facial recognition algorithm as part of MAMMOth and tested various approaches to reduce them. One issue is the color adjustment of ID photos by authorities, which can cause discrepancies between selfies and ID photos, particularly for people with darker skin tones.

The company used a style transfer method to expand the training data set. According to IDnow, this increased verification accuracy by eight percent using only a quarter of the original data volume. The accuracy difference between people with lighter and darker skin tones decreased by over 50 percent.

„By collaborating with experts, we were able to advance our technology,“ said Montaser Awal, Director of AI & ML at IDnow.

The project developed an open-source toolkit, MAI-BIAS, for future developments. IDnow plans to use it in future internal development and evaluation processes to ensure fairness in new AI models.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner