KI als Echokammer für Unconscious Bias im Recruiting: Wie Bias im Code entsteht und welche Strategien wir dagegen einsetzen können.
Wir leben im Zeitalter der Effizienz. KI-Tools scannen Hunderte Bewerbungen in Sekunden und präsentieren uns die vermeintlichen „Top-Kandidat:innen“. Das Versprechen ist verlockend: Mehr Objektivität durch Daten und enorme Zeitersparnis.
Doch die Wissenschaft warnt: Wenn wir nicht aufpassen, wirkt KI wie ein Echo-Raum für Unconscious Bias. Sie wiederholt alte Vorurteile nicht nur, sondern verstärkt sie und schränkt laut Studien unsere Auswahl erheblich ein (Köchling & Wehner, 2020). Wer die Ursache sucht, landet schnell bei einem tief verwurzelten Problem: Wie wir Leistung messen und wie Algorithmen dadurch „Erfolg“ definieren.
Während einige Studien anfangen, sich mit Bias in den Algorithmen und in der Interpretation der Ergebnisse der KI-gestützten Tools zu beschäftigen, konzentrieren sich diese Untersuchungen meist auf die Dimensionen personeller Vielfalt wie Alter, Geschlecht, Bildungshintergrund u.a. Einige Studien gehen etwas tiefer und untersuchen sogenannte Proxys – verdeckte, scheinbar objektive Merkmale, die dennoch bestimmte Gruppen ausschließen können (wie beispielsweise die Anzahl der Jahre im Beruf als Hinweis auf Alter).
Was bisher leider noch nicht zu KI im Recruiting kritisch erforscht ist, sind tieferliegende Muster und Mechanismen, die aufgrund der vorherrschenden und historischen, bewussten und unbewussten Vorstellungen die Algorithmen, die ihnen zugrunde liegenden Daten und die Interpretation der Ergebnisse beeinflussen und die KI zur Echokammer für unsere eigenen Biases machen. Aber wie kann man sich diese Voreingenommenheit in der Praxis vorstellen?
Der Rückspiegel und das Fernglas: Zweierlei Maß bei der Beurteilung
Nehmen wir an, dass Sie über eine Bewerbung entscheiden. Oft tappen wir dabei unbewusst in eine Falle:
- Der Fernglas-Blick (bei Männern): Wir schauen oft nach vorn. Wir sagen: „Er wirkt dynamisch, er bringt das richtige Mindset mit.“ Wir geben Vorschusslorbeeren für das, was er noch gar nicht getan hat.
- Der Rückspiegel-Blick (bei Frauen): Hier schauen wir oft zurück. Wir fragen: „Wo sind die Beweise? Hat sie das schon einmal genau so gemacht?“ Die Beweislast ist hoch.
Hierbei handelt es sich um die sogenannte „Potential vs. Performance“-Falle. Laut Studien (Player et al.) werden Männer überproportional häufig wegen ihres Potenzials eingestellt, Frauen müssen erst ihre Leistung beweisen. Wenn wir ein KI-gestütztes HR-Tool nun mit Daten aus der Vergangenheit füttern (wer wurde früher eingestellt oder befördert?), lernt die Software daraus eine verzerrte Regel: Männer = Potenzialträger. Das Ergebnis ist eine verzerrte und ausschließende Beurteilung der Bewerbungen, die Männer bevorteilt.
Die Selbstvermarktung: Wenn Lautstärke mit Können verwechselt wird
Das zweite Problem liegt häufig in den Bewerbungen selbst. Lebensläufe sind Werbung in eigener Sache. Studien zeigen immer wieder: Aufgrund von existierenden gesellschaftlichen Vorstellungen über die „typischen“ Geschlechterrollen, die uns während unserer Sozialisierung prägen, beschreiben Frauen ihre Leistungen tendenziell zurückhaltender und realistischer als Männer.
- Kandidat A schreibt: „Ich habe den Umsatz erheblich gesteigert.“ (Unbelegte Selbstbehauptung)
- Kandidatin B schreibt: „Ich habe das Umsatzziel um 10 % gesteigert.“ (Faktische Genauigkeit)
Eine KI, die Anschreiben und Lebensläufe analysiert, misst hier oft nicht die Kompetenz, sondern das Selbstbewusstsein. Da Algorithmen „selbstbewusste“ Attribute oft positiver bewerten, landen männliche Profile im Ranking weiter oben. Die Software – genau wie viele HR-Verantwortliche – verwechseln hier Confidence (Auftreten) mit Competence (Können). Ergebnis: eine weitere Verzerrung der Bewerbungsbeurteilung, die sich mit der Vorangegangenen summiert.
Der „Mini-Me“-Effekt: Warum wir die Vergangenheit klonen
Im Hinblick auf die Anwendung der KI spielt weiterhin auch der sogenannte Ähnlichkeitseffekt als einer der häufigsten Hindernisse auf dem Weg zur gerechten Leistungsbeurteilung eine wichtige Rolle. Diese Dynamik, die auf den Begriff der homosozialen Reproduktion von Rosabeth Moss Kanter (1977) zurückgeht, wurde in zahlreichen Studien zu Culture Fit vs. Culture Add im Recruiting immer wieder mit neuen Erkenntnissen bestätigt.
Es ist wie bei einer Band, die ein neues Mitglied für die Drums sucht. Wenn sie nur nach Personen schaut, die exakt so aussehen und klingen wie der Vorgänger, wird sie nie einen neuen Sound finden. Genau das passiert oft in Unternehmen. Algorithmen identifizieren Muster: „Wer war in der Vergangenheit in dieser Führungsrolle erfolgreich?“ Da Führungspositionen oft männlich besetzt sind oder waren, sucht der digitale Türsteher wieder nach genau diesen Mustern. Wir klonen die Vergangenheit, statt die Zukunft zu gestalten.
Checkliste für die Praxis: So brechen Sie das Muster auf
Es ist daher zentral wichtig, dass HR-Verantwortliche und Führungskräfte ein gutes Verständnis der Zusammenhänge zwischen menschlichen Biases und Prägungen, historischen Daten für KI-Systeme, dem Aufbau und Funktionsweisen der Algorithmen und schließlich der informierten Interpretation der Ergebnisse erwerben.
Mit diesen fünf ersten Schritten könnten Sie in Ihrem Arbeitsalltag in das Thema einsteigen:
- Trennen Sie Leistung von Potenzial: Machen Sie in Auswahlverfahren einen klaren Schnitt. Fragen Sie getrennt: Was wurde erreicht (Rückspiegel)? Und was trauen wir der Person zu (Fernglas)? Wichtig: Wenden Sie den „Fernglas-Blick“ bewusst auch bei Frauen an.
- Fakten statt Prosa: Verlassen Sie sich weniger auf die Selbstvermarktung in den Bewerbungen. Nutzen Sie Arbeitsproben oder fragen Sie nach Zahlen/Daten/Fakten. Lassen Sie Taten sprechen, nicht Adjektive. Definieren Sie klare Kriterien für Leistungsbeurteilung.
- Hinterfragen Sie das Ranking: Wenn Ihre Software Ihnen eine „Top 10“-Liste vorschlägt, fragen Sie kritisch: Warum ist diese Person auf Platz 1? Wurde hier eine bestimmte Wortwahl belohnt? Erkenne ich ein Muster in der Logik der mir vorgeschlagenen besten und schlechtesten Bewertungen?
- Der „Rollentausch“-Test: Wenn Sie bei einer Kandidatin zögern und denken, sie sei noch nicht so weit, stellen Sie sich die Kontrollfrage: „Würde ich das auch sagen, wenn sie ein Mann mit der gleichen Erfahrung wäre?“
- Culture Fit oder Culture Add: Weisen Sie Ihre KI explizit an, Ihnen deutliche Parallelen zwischen den Bewerbungen und dem Background der bisherigen Stelleninhaber:in auszuweisen (z.B. Ort und Fach des Studiums oder der Ausbildung, Alter, Geschlecht u.a.), um Ähnlichkeitseffekte rechtzeitig aufzudecken.
Fazit
KI-gestützte Recruiting-Tools sind keine neutralen Werkzeuge. Sie spiegeln die Praktiken und leider auch die strukturellen Dysbalancen der Gesellschaft wider, die sie auf Basis der Ausgangsdaten erlernt haben. Im ersten Moment spart uns der KI-Einsatz viel Zeit. Die Folgen der Fehlbesetzungen kosten uns im Nachhinein wiederum viel Zeit und Geld.
Die gute Nachricht: Wir haben es selbst in der Hand. Wenn wir den Zusammenhang zwischen Unconscious Bias, Datengrundlage und Algorithmen verstehen, können wir effektiv gegensteuern – mit menschlichem Verstand, fair gestalteten Prozessen und dem Wissen, dass echte Diversität kein Nice-to-Have ist, sondern ein echter Gewinn für Ihr Unternehmen und Ihre Mitarbeitenden.
Weiterführendes und Quellen:
- Chen, L., Ma, R., Hannák, A., & Wilson, C. (2018). Investigating the impact of gender on rank in resume search engines. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (Paper 651). https://cbw.sh/static/pdf/chen-chi18.pdf
- Exley, C. L., & Kessler, J. B. (2022). The gender gap in self-promotion. The Quarterly Journal of Economics, 137(3), 1345–1381. https://academic.oup.com/qje/article/137/3/1345/6513425
- Kanter, Rosabeth Moss (1977, 1993). Men and Women of the Corporations. New York, Basic Books.
- Köchling, A. & Wehner, M.C. (2020). Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Business Research, Vol. 13, 795-848, Springer International Publishing. https://doi.org/10.1007/s40685-020-00134-w
- Player, A., Randsley de Moura, G., Leite, A. C., Abrams, D., & Tresh, F. (2019). Overlooked leadership potential: The preference for leadership potential in men v. leadership performance in women. Frontiers in Psychology, 10, Article 555. https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2019.00755/full
- Raghavan, M., Barocas, S., Kleinberg, J., & Levy, K. (2020). Mitigating bias in algorithmic hiring: Evaluating claims and practices. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (pp. 469–481). ACM. https://doi.org/10.1145/3351095.3372828
- Riviera, Lauren A. (2012). Hiring as Cultural Matching: The Case of Elite Professional Service Firms. ASA – American Sociological Association, Vol. 77 (6). https://journals.sagepub.com/doi/10.1177/0003122412463213
- Hamscha, S. & Wondrak, M. (2023). Von Diversität zu Inklusion. Personalmagazin, 12, 17-19. https://www.haufe.de/download/personalmagazin-ausgabe-122023-personalmagazin-609460.pdf
- Travis, D. J. Shaffer, E. Thorpe-Moscon, J. (2019). Getting Real About Inclusive Leadership: Why Change Starts With You. Catalyst. https://www.catalyst.org/research/inclusive-leadership-report/
Unser Team hilft Ihnen gerne mit einem Impulsvortrag oder Workshop dabei, Ihr Recruiting und den Einsatz von KI-gestützten Tools zu optimieren. Gemeinsam sorgen wir dafür, dass echte Leistung zählt.
Nehmen Sie Kontakt auf:
Dr. Yulia Kozyrakis Tel: +49 151 15 62 88 77
HannoverApotheke.com


