Auszeichnung auf internationaler Bühne
Die Forschungsarbeit von Pietro Melzi und Christian Rathgeb zum Thema AntiBias in Modellen mit Künstlicher Intelligenz (KI) hat auf der International Conference on Computer Vision 2023 (ICCV 2023) den „IEEE AFMG International Workshop Best Paper Award“ gewonnen. Die Auszeichnung ist eine bedeutende Anerkennung der Forschungsarbeit von secunet im Bereich der KI und verdeutlicht zugleich die Wichtigkeit und Relevanz der Arbeit in einem internationalen Kontext.
Die ICCV, eine der führenden Konferenzen im Bereich der Computer Vision, bietet Experten aus der ganzen Welt eine Plattform, um ihre neuesten Forschungsergebnisse und technologischen Durchbrüche zu präsentieren. Sie gilt als prestigetprächtigstes Event auf diesem Gebiet.
Die Publikation thematisiert die Minimierung von demographischen Verzerrungen in KI-Modellen im Kontext der Bildanalyse. In einer Zeit, in der die Fairness und Unvoreingenommenheit von KI- Systemen zunehmend diskutiert werden bietet unsere Forschung innovative Methoden, um diesen Herausforderungen zu begegnen.
Dabei adressiert die Forschung das Problem der statistischen Verzerrungen, auch bekannt als Bias, in KI-Modellen. Diese Verzerrungen können entstehen, wenn die Daten, mit denen die KI trainiert wird, nicht alle Merkmale gleichmäßig repräsentieren. Dies kann zu einer Bevorzugung oder Benachteiligung bestimmter Personengruppen führen und darüber hinaus die Funktionsfähigkeit der Modelle gefährden.
Der secunet AntiBias Ansatz beinhaltet eine dreistufige Lösung:
Diese innovative Methode erzeugt nicht nur messbare Fairness und Diskriminierungsfreiheit der KI-Modelle, sondern steigert auch deren Sicherheit und Robustheit. Damit widmet sich secunet den Herausforderungen der modernen Bildverarbeitung und sorgt für mehr Vertrauen in KI-Technologien.
Wir iIdentifizieren und korrigieren von Verzerrungen in Bezug auf Merkmale wie Alter, Geschlecht und Ethnie werden schon in den frühen Stadien identifiziert und korrigiert.
Durch die Erzeugung fotorealistischer künstlicher Identitäten, die in verschiedenen Merkmalen variieren, wird die Erkennungsleistung des KI-Modells getestet. Dies ermöglicht eine umfassende Überprüfung auf einen möglichen Bias.
Bei erkanntem Bias werden neue Identitäten für die Trainingsdaten generiert und das Modell neu trainiert, bis kein Bias mehr nachweisbar ist.
„Der Erfolg auf der ICCV 2023 ist ein bedeutender Meilenstein für unsere KI-Forschung. Wir sind stolz darauf, diesen Weg weiter zu beschreiten und Lösungen zu entwickeln, die nicht nur technisch fortschrittlich, sondern auch ethisch verantwortungsbewusst sind."