Diversity

Diversity - künstliche Intelligenz diskriminierend?

Diversity: Interview mit Prof. Dr. Dr. F. Rostalski, Mitglied des Deutschen Ethikrats

Künstliche Intelligenz und diskriminierende  „black-box“ Algorithmen: Interview mit Prof. Dr. Dr. Frauke Rostalski, Mitglied des Deutschen Ethikrats

Diversity - künstliche Intelligenz diskriminierend?

Auf EMPLOYERREPUTATION gibt es heute die zweite Folge einer Interview-Serie zum Thema „Diversity“ mit Top-Frauen. Die erste Folge, das Gespräch mit Simone Menne, Aufsichtsrätin bei BMW, Henkel und Deutsche Post, findet Ihr hier.

Heute ist Frauke Rostalski bei EMPLOYERREPUTATION zu Gast. Sie ist Juristin und eine der jüngsten Hochschulprofessorinnen Deutschlands. Unter anderem befasst sie sich mit Künstlicher Intelligenz und den Fragen für Recht und Moral, die sich daraus ergeben. Dieses Jahr wurde sie in den Deutschen Ethikrat berufen.

EMPLOYERREPUTATION: Liebe Frauke, danke, dass Du Dir Zeit für das Gespräch nimmst! Wie in der ersten Folge der Interview-Serie, möchte ich auch mit Dir zunächst auf die aktuelle Pandemie-Situation eingehen. Glaubst Du, dass die Corona-Maßnahmen zu einer Retraditionalisierung führen, und wenn ja, was glaubst Du, woran das liegt?

ROSTALSKI: Was wir sicherlich in den letzten Monaten und vor allem während des Shutdown verbunden mit Schließung von Kitas und Schulen erlebt haben, ist eine verstärkte Übernahme „traditioneller“ Aufgaben durch Frauen. Damit meine ich, dass in vielen Familien wie selbstverständlich der Mann die „Flucht ins Home-Office“ angetreten ist, während die Frau zwar ebenfalls weiterarbeiten musste, nebenher aber den Großteil der Kinderbetreuung stemmte. Das ist aber meiner Meinung nach keine Retraditionalisierung, da der Begriff nahelegt, einmal überwundene Strukturen würden zurückkehren. Ich denke vielmehr, dass diese Strukturen sich in unserer Gesellschaft in vielen Bereichen und Köpfen bis heute mehr oder weniger offen gehalten haben. Dazu passt es dann auch, dass die Situation von Frauen während des Lockdown lange Zeit überhaupt nicht, bzw. allenfalls mit dem Verweis darauf diskutiert wurde, die Frau könne sich ja über die hinzugewonnene Zeit mit den Kindern freuen. Ich finde das sehr ungerecht, wie hier das Eine gegen das Andere ausgespielt wird. Wenn Frauen arbeiten, heißt das nicht, dass sie keine Zeit mit ihren Kindern verbringen bzw. nicht genug Zeit mit ihnen verbringen. Und zugleich heißt es nicht, dass eine berufstätige Frau per se ihren Betreuungsaufgaben nicht angemessen nachkommt. Ein solches Bild ist völlig antiquiert und ihm sollte entschiedenen entgegengetreten werden. Dabei mische ich mich nicht ein in die privaten Beziehungen zum Beispiel von berufstätigen Eltern. Ich hatte aber durchaus vor allem zu Beginn der Corona-Zeit den Eindruck, dass wie selbstverständlich das von mir beschriebene, antiquierte Bild von Frauen in Medien und teilweise auch in Stellungnahmen bzw. Handlungsvorschlägen von Akteuren aus Wissenschaft und Politik vorherrschte.

EMPLOYERREPUTATION: Als Mitglied des Deutschen Ethikrates, was wäre Deine Empfehlung an die Bundesregierung zum Thema Gleichstellung, Inklusion und Corona-Maßnahmen?

ROSTALSKI: Um dieses Problem kurzfristig nicht zu vertiefen, ist die Sicherstellung der Betreuungsinfrastruktur essenziell. Langfristig muss aber weiter an einem Umdenken gearbeitet werden. Es muss selbstverständlich sein, dass Paare die Kindererziehung und den Haushalt in die Verantwortung beider Partner legen. Eigene Lebenspläne und Karriereziele sollten unabhängig von dem Geschlecht verfolgt werden können. Diese Selbstverständlichkeit existierte auch schon vor Corona nicht flächendeckend. Eigene Lebenspläne zu verwirklichen, bedeutet aber selbstverständlich auch, dass jedem Einzelnen eine solche Entscheidung überlassen bleibt. Es ist nichts gewonnen, wenn sich die Denkweise in das Gegenteil verkehrt und eine eigenverantwortliche Entscheidung für eine „traditionelle“ Rollenverteilung aus gesellschaftlichem Druck unmöglich gemacht wird.

EMPLOYERREPUTATION: Nun zu Deinem Steckenpferd. Wenn eine KI so trainiert wird, dass sie menschliche Entscheidungen nachbildet, dann wird sie systematisch alle menschlichen Biases[1] übernehmen. Oft wird befürchtet, dass solche Systeme Vorurteile in Personalentscheidungen verstärken. Das Beispiel von Amazon bestätigt die Sorgen[2]. Sind Deiner Meinung nach die Befürchtungen berechtigt? Wenn ja, was sollten Arbeitgeber Deiner Meinung nach tun, um systematische Diskriminierung durch Künstliche Intelligenz zu minimieren?

ROSTALSKI: Es trifft zu, dass vor allem die Vermeidung ungerechtfertigter Diskriminierung eine wichtige Rolle bei der Entwicklung von KI-Anwendungen spielt. Dem Problem kann man in erster Linie Herr werden durch das Training mit Daten, die der gesellschaftlichen Diversität Rechnung tragen. Das ist allerdings nicht immer so einfach, weil häufig schlicht nicht genügend qualitativ hochwertige Trainingsdaten vorhanden sind. Für einen Arbeitgeber stellt sich meines Erachtens die Herausforderung, Software-Programme zu identifizieren, die keine Bias-Problematik aufweisen. Das kann der Einzelne im Zweifel nicht selbst, da muss er sich auf Gütesiegel oder Zertifikate verlassen, die der Hersteller ihm vorlegen sollte. Letzteres existiert derzeit allerdings nicht in der erforderlichen Weise. Nicht zuletzt aus diesem Grund arbeite ich gemeinsam mit dem Fraunhofer IAIS und der Universität Bonn an meinem Lehrstuhl an der Universität zu Köln an der Entwicklung eines Zertifikats für den vertrauenswürdigen Einsatz von KI-Anwendungen. Sofern eine Software bei Personalentscheidungen zum Einsatz kommt, die unzulässige Diskriminierungen vornimmt, darf sie meiner Einschätzung nach nicht verwendet werden. Da hilft es nicht, dass der Mensch auch Vorurteile haben kann und dies etwa auch auf den Personaler selbst zutrifft. Wir dürfen nicht vergessen, dass Diskriminierungen so oder so untersagt sind – ob sie nun durch die Verwendung eines Programms erfolgen oder unmittelbar durch den Personaler.

EMPLOYERREPUTATION: Welche rechtlichen Risiken erwachsen Arbeitgebern aus diesen möglicherweise diskriminierenden und eigenständigen „black-box“ Algorithmen? Ist eine AGG-Klagewelle zu erwarten? Werden Datenkraken, vielleicht sogar vom Arbeitgeber unbemerkt, gegen die Datenschutzregeln verstoßen? Und wie sollten Unternehmen mit den rechtlichen Risiken dieser neuen Technologie umgehen?

ROSTALSKI: Algorithmen bieten eine hilfreiche Unterstützung in vielen Arbeitsfeldern. Sie sind aber auch nicht mehr als eine Unterstützung. Das meint, dass die Verantwortung für Entscheidungen des Algorithmus und die genutzten Daten selbstverständlich (auch) bei den AnwenderInnen liegt. Risiken erwachsen insbesondere, wenn keine Kontrolle der jeweiligen KI-Software erfolgt. Der Algorithmus bildet menschliche Entscheidungen nach. Eine Kontrolle ist daher unverzichtbar. Dies gilt für möglicherweise diskriminierende und eigenständige „black-box“ Algorithmen sowie die Einhaltung des Datenschutzrechts gleichermaßen.

EMPLOYERREPUTATION: Siehst Du Chancen für mehr Diversity durch KI? Wann entscheiden Maschinen gerechter als Menschen?

ROSTALSKI: Die Entscheidung eines Algorithmus ist nicht durch Empfindungen geprägt. Er knüpft bei Entscheidungen nicht an eigene Erlebnisse und Erfahrungen an. Damit ist eine subjektive Einschätzung, die von Gefühlen geleitet wird, nicht möglich. Der Einfluss von Vorurteilen sollte also im Idealfall gering sein. Dies trifft aber natürlich nur zu, wenn sie dem Algorithmus nicht antrainiert werden.

EMPLOYERREPUTATION: Zum Schluss würde ich Dich gerne zu Deinen persönlichen Erfahrungen befragen: Wie siehst Du die Diversity an deutschen Hochschulen? Frauen haben ca. 25% der Professuren inne[3]. Professor:innen mit Migrationshintergrund sind wohl auch nicht die Regel. Wie gut ist das Diversity-Management an deutschen Hochschulen? Was läuft gut und was sollte Deiner Meinung nach dringend geändert werden?

ROSTALSKI: Es spricht natürlich für sich, dass Frauen nur 25% der Professuren innehaben. Gerade im Strafrecht sehe ich aber eine positive Entwicklung. Es sind in letzter Zeit einige Professuren mit Wissenschaftlerinnen besetzt worden. An meinen Lehrstuhl sind die Nachwuchswissenschaftlerinnen bereits in der Überzahl. An der Universität zu Köln gibt es unter anderem Programme für DoktorandInnen, die sich sowohl ausschließlich an Frauen als auch an Promovierende bzw. promotionsinteressierte Studierende mit nicht-akademischem Familienhintergrund richten. Dennoch gibt es natürlich immer Potential für Verbesserungen. Es könnte bereits vor Abschluss bzw. zu Beginn des Studiums das Selbstverständnis der Studierenden weiter gefördert werden. Es sollte im Studium vermittelt werden, dass eigene Gedanken und Fragen wichtig sind und gehört werden sollten. Erstrebenswert ist eine Atmosphäre, in der jede und jeder Vertrauen in ihre bzw. seine wissenschaftlichen Fähigkeiten fassen kann. Denn nur dann wird eine Karriere in der Wissenschaft überhaupt erst in Betracht gezogen. Was die Berufungspraxis angeht, sehe ich auch die Hochschulleitungen in der Pflicht. Hier muss – gemeinsam mit der Frauenbeauftragten – streng auf Gleichstellung geachtet wurde, auch wenn das für die eine oder andere Fakultät bedeutet, dass ihre Berufungslisten seitens der Leitung verändert werden. Nicht zuletzt gehört es in diesen Kontext, das auch an Hochschulen offenbar vorhandene Gender Pay Gap zu schließen. Auch hieran müssen die Hochschulleitungen arbeiten, weil ungleiche Bezahlung aufgrund des Geschlechts unter keinen Umständen zu rechtfertigen ist.

EMPLOYERREPUTATION: Liebe Frauke, vielen Dank für das Gespräch!

 

Zur Person

frauke rostalski diversity algorithmen ki aiFrauke Rostalski studierte Rechtswissenschaft an der Philipps-Universität Marburg. Anschließend promovierte sie zu dem Thema „Gesinnung und Straftat. Besinnung auf ein rechtsstaatliches Strafrecht“. Nach dem Abschluss des juristischen Vorbereitungsdiensts am Landgericht Marburg erlangte sie 2017 die venia legendi für Strafrecht, Strafprozessrecht, Rechtsphilosophie, Wirtschaftsstrafrecht, Medizinstrafrecht und Rechtsvergleichung. Zur gleichen Zeit schloss sie ihre Promotion im Fach Philosophie ab. 2018 folgte der Ruf an die Universität zu Köln. Neben der Forschung zu primär (straf-)rechtlichen Themen nutzt Frauke Rostalski die Professur, um sich mit Fragestellungen rund um das Thema „Legal Tech“ zu befassen. Sie ist unter anderem Mitglied im Zertifizierungsprojekt KI.NRW, zuständig für den Bereich „Recht“ und Sprecherin der Forschungsstelle „Recht und Ethik der digitalen Transformation“ an der Universität zu Köln. Zusätzlich initiierte sie die Vortragsreihe „Legal Tech“ und Veranstaltungen zu den Themen „ICOs und Compliance“ sowie „Fake News und Social Bots“. Sie unterstützte die Gründung des „Legal Tech Labs Cologne“, das sie auch weiterhin betreut. Zudem ist Frauke Rostalski seit 2020 Mitglied des Deutschen Ethikrats.

 

[1] Kognitive Verzerrungen, logische Fehler, zu denen Menschen tendieren (statistisch nachgewiesen), beispielsweise Wahrnehmungs- und Beurteilungsfehler, nicht nur aufgrund von Stereotypen.
[2] Amazon scraps secret AI recruiting tool that showed bias against women https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G (abgerufen am 30.09.2020)
[3] Höchster Professorinnen-Anteil an FU Berlin https://www.forschung-und-lehre.de/karriere/hoechster-professorinnen-anteil-an-fu-berlin-2218/#:~:text=Frauen%20haben%20an%20den%20gr%C3%B6%C3%9Ften,der%20gr%C3%B6%C3%9Ften%20Hochschulen%20von%20Frauen. (abgerufen am 30.09.2020)


Diversity-Sourcing und Diversity-Recruiting. Ina Ferber im Interview

Diversity – Sourcing und Strategie: Ina Ferber zu Gast bei Intercessio

Die wunderbare Barbara Braehmer, Gründerin von Intercessio, hat mich für den TALENTFINDER CIRCLE  zu Diversity-Recruiting und Diversity-Sourcing befragt. Hier gibt es das vollständige Interview: