Blog

Künstliche Voreingenommenheit.

Das Thema der künstlichen Intelligenz im Bewerbungsprozess hatten wir bereits behandelt und als einen Vorzug dieser Technik die Objektivität der KI erwähnt: Ein Algorithmus sei unvoreingenommen, habe keine unbewussten persönlichen Neigungen, sogenannte Bias. (Linguistischer Exkurs: Das Wort „Bias“, das meistens und korrekt englisch ausgesprochen wird, existiert auch im Deutschen: der oder das Bias, Plural: die Bias.) Da gibt es zum Beispiel den Ähnlichkeitsbias, demzufolge Bewerber positiver beurteilt werden, die Gemeinsamkeiten mit den Entscheidern aufweisen. Oder den Primacy-Recency-Effekt, der dazu führt, dass die ersten einer Reihe von Bewerbungen besser im Gedächtnis bleiben und somit bessere Chancen haben. 

Nun zeigt KI morgens mit Sicherheit keine schlechtere Speicherleistung als abends. ­Aber was ist mit dem Ähnlichkeits-Bias und anderen? Schlechte Nachricht: Es gibt sie auch in Form von Software. Forscher erkannten sogar in KI-Ergebnissen signifikante Bias hinsichtlich Geschlecht, Herkunft und Aussehen von Bewerbern. Ein Beispiel dafür stammt aus dem Jahr 2014. Seitdem hat sich KI dramatisch weiterentwickelt, dennoch bleibt es bemerkenswert, dass Amazon Bewerberinnen und Bewerber per KI priorisiert hatte und in dem Ergebnis Diskriminierung weiblicher Bewerber festzustellen war. Zur Erklärung gibt es eine plausible These: KI arbeitet auf Grundlage eines Datenpools der sich aus realen Vorgängen speist, also aus menschlichem Handeln. Solange dieser Datenpool nicht hinsichtlich unausgewogener Entscheidungen gefiltert wird, ist es logisch, dass die Software menschliches Verhalten reproduziert – Fehler inklusive. Sehenswert in diesem Zusammenhang ist die Netflix-Doku Coded Bias.

Noch müssen wir Menschen den Job also selbst machen. Dabei ist Fairness kein idealistischer Wunsch, sondern Voraussetzung für optimale Ergebnisse. Professionelle Personalberater möchten kein Talent übergehen, nur weil es bestimmte oberflächlichen Merkmale aufweist oder nicht. Allein die bestmöglich funktionierende Besetzung einer Stelle zählt. Sichere methodische Lösungsansätze lassen aber leider noch auf sich warten. Bis dahin müssen Personalberater das eigene Denken und Verhalten aufmerksam und kritisch beobachten. Sie müssen eigene Bias erkennen und bewusst gegensteuern. 

Die sicherste Methode, um den Einfluss irrelevanter Kriterien zu eliminieren, ist, ebenjene aus dem Prozess zu entfernen. Bei den großen Tech-Firmen aus dem Silicon Valley sind Bewerbungen ohne Bild und Name deshalb Standard. Anders als bei uns. Wir wollen auf diese oberflächlichen Kriterien anscheinend nicht verzichten. Warum nicht?

Edit: In der Mediathek des ZDF läuft noch bis 2024 eine Doku über das Thema dieses Beitrags. Sie trägt den recht ähnlichen Titel "Programmierte Ungerechtigkeit". Unter anderem werden dort auch Probleme für das Gesundheitswesen aufgezeigt (ab 14:05). Insgesamt hat das ZDF einen deutlich weiteren Fokus, als wir.

Den insgesamt sehenswerten Beitrag finden Sie unter folgendem Link: https://www.zdf.de/dokumentation/digital-empire/algorithmus-ki-programmierung-vorurteile-diskriminierung-rassismus-social-media-100.html