Diversity 6 Minuten Lesezeit Das KIDD-Pro­jekt macht Künst­li­che In­tel­li­genz fair und trans­pa­rent Startseite Themen Diversity
auf Facebook teilen auf X teilen auf LinkedIn teilen auf Xing teilen
  • Von einer Künstlichen Intelligenz (KI), die niemanden benachteiligt, profitieren Unternehmen, Mitarbeitende und Gesellschaft gleichermaßen.
  • Noch bis September erproben vier INQA-Experimentierräume im Rahmen des KIDD-Projektes einen Prozess zur Einführung von diversitätsgerechter KI.
  • Ein wichtiges Instrument ist dabei stets das Panel der Vielfalt – ein Gremium von Akteur*innen und Expert*innen aus den Betrieben.
  • Auf der Konferenz KIDD @ work stellten die Teilnehmenden Ergebnisse aus den Experimentierräumen vor und diskutierten sie im Kontext aktueller Entwicklungen.

Der Einsatz von Künstlicher Intelligenz (KI) ist aus den Unternehmen nicht mehr wegzudenken. Aber wie lässt sich menschenzentrierte KI so konzipieren, dass sie niemanden diskriminiert? Dieser Frage gehen vier INQA-Experimentierräume im Rahmen des Projektes „Künstliche Intelligenz im Dienste der Diversität (KIDD)“ nach.

„Es ist eine gesellschaftliche Aufgabe, sicherzustellen, dass Unternehmen mit Software arbeiten, die diversitätssensibel ist“, stellt Katja Anclam klar. Sie ist Vorsitzende des Vereins female.vision e.V. und Mitglied des KIDD-Konsortiums. In Deutschland habe inzwischen jede*r Vierte eine Einwanderungsgeschichte. Es sei zu befürchten, dass eine Software, die veraltete Daten nutzt, diese Menschen diskriminiere.

Das KIDD-Projekt macht Diskriminierung und mangelnde Fairness in Algorithmen bewusst

Das Problem: Eine KI ist immer nur so gut wie die Informationen, mit denen sie arbeitet. Je nach Qualität des Datensatzes kann eine Ausgrenzung und Vorverurteilung bestimmter Personengruppen passieren. In einem Tech-Konzern etwa sortierte der digitale Bewerbungsassistent für bestimmte Stellen die Unterlagen von Frauen aus und schlug nur Männer für freie Positionen vor. Der Grund: Die Stellen waren bisher ausschließlich von Männern besetzt gewesen – die KI folgerte daraus, dass Frauen dafür nicht in Frage kämen. Arbeitet eine KI mit unausgewogenen Datensätzen, kann sie also Diversität und Gleichstellung ausbremsen. Bias nennt man diese Verzerrungen durch die Software, aufgrund derer Menschen wegen ihrer Herkunft, Bildung, Gesundheit oder Lebenssituation benachteiligt werden. Ziel des KIDD-Projektes ist es, ein Bewusstsein auf breiter Ebene zu erzeugen und Unternehmen zu befähigen, Ungleichheiten dieser Art zu entdecken und auszugleichen.

Diverse Teams bringen bessere Ergebnisse – wenn sie ihr Potenzial nutzen

Die Problematik der Bias, deren Auswirkungen und wie damit umzugehen ist, standen auch im Zentrum der Abschlusskonferenz KIDD @ work im Berliner Ludwig-Erhardt-Haus. „Die Einführung von KI kann die Arbeit verbessern, wenn Diversität von Anfang an berücksichtigt wird. Genau das macht KIDD”, sagte Fabian Langenbruch vom Bundesministerium für Arbeit und Soziales (BMAS) in seiner Begrüßungsrede, und fügte hinzu: „Das Projekt ist ein wichtiger Beitrag zur diversitätsorientierten Personalpolitik”. Das BMAS, für das Langenbruch als stellvertretender Abteilungsleiter Qualifizierung, Aus- und Weiterbildung und Fachkräftesicherung arbeitet, fördert die INQA-Experimentierräume.

Der KIDD-Prozess für eine faire Software

Obwohl es eine Abschlusskonferenz war, herrschte Aufbruchstimmung. Vertreter*innen der beteiligten Unternehmen, Software-Entwickler*innen, Forscher*innen und NGOs, die seit Oktober 2020 gemeinsam an KIDD forschen, trafen sich und tauschten sich über gelungene Prozesse und die wichtigsten Erkenntnisse aus. Viele junge Erwachsene waren darunter, zwei Drittel Frauen. Es wurde viel geduzt und gelacht, wie die Stimmung eben ist, wenn man gemeinsam erfolgreich ein Projekt auf den Weg gebracht hat (Impressionen des Events). Die Versammelten stellten die Ergebnisse aus knapp drei Jahren Forschungsarbeit vor. Gemeinsam haben sie den KIDD-Prozess entwickelt. Er soll in Zukunft überall dort zum Einsatz kommen, wo es in der IT um Menschen geht.

Vier Experimentierräume – ein gemeinsames Ziel: menschenzentrierte, gerechte und transparente IT

Die vier INQA-Experimentierräume kommen dem Ziel, eine faire Software zu schaffen, auf verschiedene Weise näher: Mit Hilfe einer KI vernetzt die Firma Q_Perior Mitarbeiter*innen nach ihren sozialen Präferenzen. In einem weiteren Verfahren vergibt eine Software Aufgaben an die Teammitglieder mit den jeweils passendsten Kenntnissen. Der Experimentierraum des Software-Unternehmens msg.systems entwickelte mit der msg.profilemap eine KI, welche die Fähigkeiten und Kompetenzen von Mitarbeitenden erfasst und transparent darstellt. So können etwa Projekte schnell und effizient besetzt werden. In einem weiteren Experimentierraum probt das Medizintechnik-Unternehmen Heraeus Medical die diversitätsgerechte Einführung einer vertriebsunterstützenden Software. Im vierten Experimentierraum testet die Firma epsum eine Vermittlungsplattform für Reinigungsdienstleistungen, die die Arbeitsqualität der Reinigungskräfte – unabhängig von Bias und somit fair – berücksichtigt.

Für den Erfolg muss Diskriminierung schon im Designprozess identifiziert werden

Welche Vorteile eine KI, die Diversität einbezieht, für die Unternehmenskultur haben kann, zeigt zum Beispiel der Software-Entwickler Q_Perior mit zwei Verfahren. Erstens das Buddy-Matching: Beim Einarbeiten sollen Neuzugänge mit Mentor*innen vernetzt werden, deren Persönlichkeit optimal zu ihnen passt. Diese schätzen die Beschäftigten mit Hilfe von Fragebögen selbst ein. Im zweiten Verfahren probt Q_Perior das Project Matching: Offene Positionen sollen bestmöglich besetzt werden. Dafür bringt eine KI verschiedene Mitarbeiter*innen anhand ihrer Skills, Kenntnisse, Wünsche und Verfügbarkeiten zusammen. „Als Datengrundlage dienen detaillierte Lebensläufe nach Vorbild eines LinkedIn-Profils“, erläutert Axel Demel, der bei Q-Perior beide Projekte betreut. Eine wichtige Erkenntnis aus den bisherigen Testläufen: Um Diskriminierung durch die Systeme zu verhindern, müssen bereits im Designprozess verschiedene Perspektiven berücksichtigt und Menschen mit unterschiedlichem Hintergrund einbezogen werden.

Panel der Vielfalt berät Software-Entwickelnde in Sachen Diversität

Das gelingt mit Hilfe des KIDD-Prozesses, den die Teilnehmenden der vier INQA-Experimentierräume gemeinsam entwickelt haben und der auch von anderen interessierten Unternehmen durchgeführt werden kann. „Ein wichtiges Instrument des KIDD-Prozesses ist das Panel der Vielfalt. Es besteht aus bis zu 15 Mitarbeitenden des Unternehmens und ist möglichst divers zusammengesetzt“, erklärt Projektleiter Dr. Arnd Hofmeister vom nexus Institut. Aufgabe des Gremiums ist es, die Einführung der KI aus möglichst vielen Perspektiven zu begleiten, kritische Fragen aufzuwerfen und zu diskutieren. So ermöglicht es das Panel der Vielfalt, die einzuführende KI aus der Perspektive all jener zu betrachten, deren berufliche Entwicklung durch die KI beeinflusst wird. „Das baut das Vertrauen der Mitarbeitenden in die Software auf“, erläutert Hofmeister. Unterstützt wird das Panel von einer oder einem KIDD-Moderator*in, der oder die besonders geschult ist und die Verhandlungen zwischen Panel und Software-Expert*innen begleitet.

Die Praxis zeigt: Gerade Menschen mit wenig IT-Kenntnissen stellen relevante Fragen

Bei Q_Perior hat das Panel der Vielfalt 17 Mitglieder. Sie unterscheiden sich nicht nur in Geschlecht, Alter oder ethnischer Herkunft, sondern auch in ihrer Zugehörigkeit zum Unternehmen und ihren IT-Kenntnissen. „Vor allem Panel-Teilnehmende ohne IT-Bezug stellten in der Testphase viele relevante Fragen“, berichtet Axel Demel. Fragen wie zum Beispiel: Was soll beim Job Matching schwerer wiegen – aktuelle Kenntnisse oder jahrelange Berufserfahrung? „Das erste würde Menschen, die aus der Elternzeit zurückkehren, beim Project Matching systematisch benachteiligen“, erläutert Demel. Ziel des KIDD-Prozesses ist echte Partizipation und nicht nur ein Austausch unter Expert*innen. Bei Q_Perior gelingt das und macht etwa das Buddy Matching zu einem vollen Erfolg für die Unternehmenskultur. Eine Umfrage ergab: 94 Prozent der Teilnehmenden wollen auch zukünftig am Buddy Matching teilnehmen. 86 Prozent sagen, dass sie als Team harmonieren. Drei Jahre Projektarbeit zeigen: Viele Verbindungen bleiben bestehen, aus manchen „Matches“ sind enge Verbindungen entstanden. So ist das „Buddy Matching“ schon jetzt ein wertvolles Tool, dass die Mitarbeiterbindung fördert.

Mitwirkung, Transparenz und Vertrauen sind der Schlüssel zum Erfolg

„Eine KI kann fairer sein als der Mensch – falls sie ohne Bias trainiert wurde“, sagt Georg Juelke von der Software-Firma msg.systems. Eine weitere wichtige Voraussetzung, auch das zeigt die Erfahrung der vier INQA-Experimentierräume, ist die maximale Transparenz. Denn im Gegensatz zu den Entscheidungen des Menschen ist bei einem KI-System ein „Blick hinter die Kulissen“ möglich. So lässt sich der Weg zur Entscheidung einsehen, weiterentwickeln und fairer gestalten und Mängel im Software-Design werden ausgeglichen.

Vom KIDD-Prozess profitieren auch die Software-Entwickelnden

Von einem erfolgreichen KIDD-Prozess profitieren nicht nur Mitarbeitende und Unternehmenskultur sondern auch die Software-Hersteller – eine weitere wichtige Erkenntnis bei KIDD @ work. „Wir haben jetzt dank INQA und der engen Zusammenarbeit in den Experimentierräumen eine bessere Software“, sagt Axel Demel von Q_Perior. „In den INQA-Experimentierräumen haben wir viel voneinander gelernt – und hoffentlich lernen andere Unternehmen jetzt von uns.“ Im Fall von Q_Perior ist das schon der Fall, denn die Firma setzte in ihrem Experimentierraum eine Software von Chemistree ein: „Mit Kund*innen wie Q_Perior können wir unsere Matching-Plattformen im Sinne der Mitarbeitenden prüfen und gemeinsam eine erfolgreiche Lösung für das Unternehmen schaffen, die das Vertrauen der Teilnehmenden wirklich verdient“, erklärt Rosmarie Steiniger, CEO von Chemistree. Die Fragen des Panels lieferten wertvolle Erkenntnisse.

Der nächste wichtige Schritt: Das Wissen in die Breite tragen

Die Betrachtungen zur Diversität haben unserer Software einen echten Verkaufsvorteil gegeben“, pflichtet ihr Georg Juelke bei. „Ohne INQA wäre uns das Thema der diskriminierungsfreien KI nicht so schnell bewusst geworden. Mögliche spätere Probleme können wir jetzt proaktiv steuern.“ Die wichtigste Aufgabe, da sind sich alle Beteiligten einig, sei es nun, die Ergebnisse in die Breite zu tragen und in anderen Branchen, Regionen und Unternehmen sichtbar zu machen. „Jedes Unternehmen, das diskriminierungssensible Software herstellt, sollte diese Kenntnisse erwerben“, fordert Georg Juelke. Dabei soll ein Handbuch helfen, das den KIDD-Prozess erklärt und Handlungshilfen bietet. Dieses wird Ende des Jahres verfügbar sein, eine vorläufige Version steht jedoch schon jetzt zum Download bereit. Einen guten Einblick bietet auch die „KIDD Ausstellung“: Sie ist von April bis September 2023 an sechs Standorten bundesweit zu sehen und zeigt wichtige Erkenntnisse aus den vier INQA-Experimentierräumen.

Mit diesen diesen fünf Schritten gelingt der KIDD-Prozess:

Einbindung relevanter Akteur*innen & Erstellung des Projektplans

Zu Beginn werden alle relevanten innerbetrieblichen Akteur*innen informiert und eingebunden. Besteht im Unternehmen ein Betriebsrat, muss dieser der Einführung der Software zustimmen. Ein Projektplan, in dem die KIDD-Prozessschritte berücksichtigt sind, wird erstellt.

Bildung und Schulung des Panels der Vielfalt 

Das Panel der Vielfalt bildet sich und wird in Bezug auf die rechtlichen, ethischen und diversitätsbezogenen Aspekte geschult. Das Panel tauscht sich dann über Hoffnungen und Befürchtungen bezüglich der KI-Anwendung aus und formuliert erste Anforderungen an diese.

Unterstützung durch KIDD-Moderator*in

Unterstützt wird das Panel während des gesamten Prozesses durch eine geschulte KIDD-Moderator*in (KIM). Sie moderiert die Verhandlungen zwischen Panel und Software-Entwickelnden.

Verhandlung zwischen Panel und Software-Entwickelnden

Das Panel verhandelt mit den Software-Entwickelnden die ethischen und diskriminierungssensiblen Optionen der Software und gibt Empfehlungen. Grundlage ist die transparente Darstellung dieser Optionen durch die Software-Expert*innen. Dabei werden zentrale Fragen zu den genutzten Daten, den Regeln und der Software-Architektur beantwortet.

Abstimmung der Monitoringmaßnahmen

Bevor die KI-Anwendung in Betrieb genommen wird, werden gemeinsam mit dem Panel der Vielfalt die nötigen Monitoringmaßnahmen abgestimmt, um sicherzustellen, dass die ethischen und diskriminierungssensiblen Anforderungen auch in Zukunft eingehalten werden.

Diversity auf Facebook teilen auf X teilen auf LinkedIn teilen auf Xing teilen
Feedback-Modul Wir sind an Ihrem Feedback interessiert. War dieser Artikel für Sie hilfreich?

Haben wir Ihre Erwartungen erfüllt? Sagen Sie es uns! Denn auf Ihr konstruktives Feedback legen wir viel Wert. Wir laden Sie ein, den Wandel der Arbeitswelt aktiv mitzugestalten! Erzählen Sie uns, was Sie in Ihrem Betrieb ganz praktisch ausprobieren und umsetzen. Senden Sie uns eine E-Mail, und zwar an feedback@inqa.de. Herzlichen Dank!

Schön, dass Sie den Text hilfreich finden. Was genau hat gestimmt? Bitte wählen Sie mindestens eine Antwort aus. Mehrfachnennungen sind möglich. Es tut uns leid, dass dieser Artikel für Sie nicht hilfreich ist. Woran liegt das? Bitte wählen Sie mindestens eine Antwort aus. Mehrfachnennungen sind möglich. Bitte wählen Sie Ihre Rolle aus. Es ist nur eine Antwort möglich. Möchten Sie uns noch individuell etwas zu diesem Artikel mitteilen? Helfen Sie uns, INQA mit ihrem Feedback zu verbessern!  Es ist noch nicht alles gesagt? Sie möchten sich direkt mit uns austauschen und Ihre Praxiserfahrung über INQA teilen? Dann geben Sie Ihre E-Mail-Adresse an. Die INQA-Redaktion wird sich zeitnah bei Ihnen melden. Vielen Dank!
Mit Ihrem Feedback helfen Sie uns, INQA.de besser zu machen.

Jetzt unsere INQA-Newsletter abonnieren und keine Neuigkeiten aus der betrieblichen Praxis verpassen: Zur Anmeldung

Das könnte Sie auch interessieren
Diversity The­men­feld Di­ver­si­ty: Die­se An­ge­bo­te hat IN­QA für Sie

Sie möch­ten sich für mehr Di­ver­si­tät in Ih­rem Un­ter­neh­men oder in Ih­rer Ver­wal­tung ein­set­zen? Auf in­qa.de fin­den Sie In­for­ma­ti­ons­an­ge­bo­te und Hin­ter­grund­wis­sen, u.a. im Be­reich Wis­sen / Di­ver­si­ty und im Ma­ga­zin.

3 Minuten Lesezeit
Diversity Ei­ne KI schaf­fen, die nicht dis­kri­mi­niert

Wenn sie auf ver­zerr­te Da­ten­sät­ze zu­rück­greift, kann Künst­li­che In­tel­li­genz (KI) zum Hemm­nis für Gleich­be­rech­ti­gung und Di­ver­si­tät wer­den. Der IN­QA-Ex­pe­ri­men­tier­raum KIDD er­forscht, wie sich Al­go­rith­men dis­kri­mi­nie­rungs­frei ein­set­zen las­sen.

2 Minuten Lesezeit
Künstliche Intelligenz KI muss sich im­mer am Be­darf in den Un­ter­neh­men aus­rich­ten“

Kaum ein klei­nes oder mit­tel­stän­di­sches Un­ter­neh­men (KMU) kann sich teu­re KI-Ex­pert*in­nen leis­ten. Über „KI-Füh­le­cken“ kön­nen Be­schäf­tig­te wich­ti­ge Er­fah­run­gen sam­meln“, meint Sa­scha Sto­was­ser, Di­rek­tor des In­sti­tuts für An­ge­wand­te Ar­beits­wis­sen­schaft (ifaa).

2 Minuten Lesezeit
Bleiben Sie mit uns in Verbindung

Tra­gen Sie sich in den IN­QA-Ver­tei­ler ein und wer­den Sie Teil der Pra­xis­platt­form für Ar­beits­qua­li­tät und den Wan­del der Ar­beit

Ich habe die Datenschutzbestimmungen gelesen. Über einen Link in den Benachrichtigungen der Initiative kann ich diese Funktion jederzeit deaktivieren.