Blog
Verantwortung an Algorithmen abgeben? KI in der Personalauswahl
Udo Wichmann
Geschäftsführer
KI hält Einzug in die Personalauswahl. Schnell, skalierbar, scheinbar objektiv. Doch wer die Technologie unkritisch einsetzt, übersieht, was Recruiting im Kern ist: eine Entscheidung über Menschen. Und die bleibt menschlich.

Die Versprechen sind real. Die Risiken auch.
KI im Recruiting ist kein Trend mehr. Sie ist Infrastruktur. Applicant-Tracking-Systeme (ATS) sortieren Lebensläufe vor. Sprachmodelle analysieren Anschreiben. Predictive-Analytics-Tools prognostizieren Fluktuation. Die Effizienzgewinne sind messbar. Zeitaufwand sinkt, Fehlerquoten bei repetitiven Aufgaben auch.
Das Problem liegt woanders. KI lernt aus historischen Daten. Und historische Daten spiegeln historische Ungleichheiten. Amazon hat das 2018 auf die harte Tour gelernt: Das interne Recruiting-System benachteiligte systematisch Bewerberinnen, weil es auf Jahrzehnten männlich geprägter Einstellungsentscheidungen trainiert worden war. Das Projekt wurde eingestellt, bevor es live ging. Aber wie viele Systeme laufen bereits im Einsatz, ohne dass jemand hingeschaut hat?
Eine Literaturstudie aus dem Forschungsprojekt FINDHR (2024) identifiziert drei Hauptursachen für KI-Bias in der Personalauswahl: nicht-repräsentative Trainingsdaten, falsch gelabelte Ergebnisse und voreingenommene Entwicklungsentscheidungen. Alle drei entstehen nicht durch böse Absicht. Sie entstehen durch Unachtsamkeit.
Die BMAS-Denkfabrik fasst es präzise zusammen: Bias ist kein Fehler eines schlechten Algorithmus, es ist das korrekte Ergebnis eines Systems, das auf verzerrten Daten trainiert wurde.

Ein neues Risiko: der AI-AI-Bias
Seit 2023 hat sich die KI-Nutzung auf Bewerberseite verdreifacht. Laut der Studie "KI trifft Recruiting 2025" von softgarden, für die knapp 7.000 Personen befragt wurden, verwenden 43 Prozent der Bewerbenden KI beim Verfassen ihrer Unterlagen, weitere 30 Prozent können es sich vorstellen. Das ist keine schlechte Nachricht. Es verändert aber die Spielregeln grundlegend.
Wenn Bewerbende KI einsetzen und Systeme auf Arbeitgeberseite ebenfalls KI einsetzen, entsteht ein strukturelles Problem, das bisher kaum diskutiert wird. KI-Systeme neigen dazu, KI-generierte Texte zu bevorzugen. Der Grund liegt im sogenannten Self-Preference-Bias: maschinell erzeugte Inhalte haben eine statistisch erwartbare Struktur, die ein ähnlich trainiertes System als gut einstuft. Menschlich geschriebene Texte, die lebendiger, unregelmäßiger und persönlicher sind, werden abgestraft. Das Ergebnis ist eine algorithmische Monokultur, die den besten KI-Prompter auswählt und eben nicht die beste Fachkraft.
Eine Studie der Universität Zürich aus dem November 2025 hat zudem gezeigt, dass Sprachmodelle Texte nicht neutral bewerten, sobald ihnen die vermeintliche Quelle bekannt ist. Das gleiche Dokument bekommt eine andere Beurteilung, je nachdem ob das Modell "weiß", von wem es stammt. Das ist kein theoretisches Problem. Es ist ein aktives Risiko für jeden, der LLM-basierte Tools in der Vorauswahl einsetzt.

Was der EU AI Act jetzt bedeutet
Der EU AI Act ist kein Zukunftsszenario. Er ist geltendes Recht. Seit Februar 2025 sind erste Verbote in Kraft, darunter der Einsatz von Emotion-Recognition-Tools bei Einstellungsentscheidungen. Ab August 2026 greifen die vollständigen Pflichten für Hochrisiko-KI, und KI in der Personalauswahl ist explizit als Hochrisiko eingestuft.
Was das konkret bedeutet: Wer ein KI-gestütztes Screening-Tool einsetzt, braucht ein dokumentiertes Risikomanagementsystem. Er muss menschliche Aufsicht durch qualifizierte Personen mit Eingriffsbefugnis gewährleisten. Er muss transparent machen, wie das System funktioniert, welche Bias-Risiken bestehen und wie korrigiert wird. Bewerbende müssen informiert werden. Mitarbeitende müssen geschult sein, diese Pflicht gilt bereits seit Februar 2025 gemäß Artikel 4 des AI Act. Ab August 2026 ist zudem eine Konformitätsbewertung durch zertifizierte Prüforganisationen erforderlich.

Was Bewerbende tatsächlich wollen
Die softgarden-Studie zeigt ein klares Bild. 63 Prozent der Jobsuchenden akzeptieren KI, wenn sie als unterstützendes Werkzeug für eine Empfehlung eingesetzt wird. Die Zustimmung fällt auf 25 Prozent, sobald KI autonom entscheidet. 69 Prozent lehnen das ausdrücklich ab. Diese Zahlen stammen aus einer softgarden-Erhebung von 2023 (n = 2.674). Die neuere Studie „KI trifft Recruiting 2025" (n = 6.929) zeigt, dass sich die Nutzung seitdem weiter beschleunigt hat, die grundlegende Akzeptanzschwelle dürfte aber stabil geblieben sein. Deborah Dudda-Luzzato, Leiterin der Fachgruppe Recruiting im Bundesverband der Personalmanager, bringt es auf den Punkt: KI ersetzt nur Menschen, die nicht mit KI umgehen können.
Das ist keine KI-Feindlichkeit. Es ist ein klares Qualitätssignal. Menschen wollen wissen, dass am Ende ein Mensch entschieden hat. Das gilt insbesondere für Führungspositionen, wo Passung, Haltung und Kontext nicht in ein Scoring-Modell passen.

Wie wir bei workidentity damit umgehen
KI ist kein Feind des professionellen Recruitings. KI ist ein Werkzeug. Und wie jedes Werkzeug entscheidet nicht die Existenz, sondern der Einsatz über das Ergebnis. Wir nutzen datengestützte Analyse dort, wo sie Sinn ergibt: bei der Marktrecherche, beim Sourcing, bei der Strukturierung von Anforderungsprofilen. Die Bewertung einer Person übernehmen wir selbst. Jedes Profil, das wir einem Mandanten vorstellen, wurde von einem erfahrenen Senior Consultant gelesen, eingeordnet und mit dem Rollenkontext abgeglichen. Der Grund ist einfach. Fehlbesetzungen entstehen nicht durch zu wenig Daten. Sie entstehen durch fehlende Urteilskraft. KI kann Daten aufbereiten. Urteilen muss der Mensch.

Drei Fragen, die jedes Unternehmen stellen sollte
Bevor KI in der Personalauswahl eingesetzt wird, braucht es klare Antworten auf drei Fragen.
  1. Auf welchen Daten wurde das System trainiert? Nicht-repräsentative Trainingsdaten sind die häufigste Quelle für Bias. Wer das nicht beantworten kann, hat ein Compliance-Problem und vermutlich ein ethisches.
  2. Zweitens: Wer überwacht und kann eingreifen? Menschliche Aufsicht ist keine KI-skeptische Haltung. Ab 2026 ist sie gesetzliche Pflicht. Und sie ist das einzige, was verhindert, dass ein Systemfehler unbemerkt Hunderte Bewerbungen falsch filtert.
  3. Wissen Bewerbende, dass KI im Einsatz ist? Transparenz ist keine Schwäche. Sie ist Vertrauensaufbau. Und sie ist Pflicht. KI verändert Recruiting. Das ist keine Frage mehr. Die Frage ist, wer die Verantwortung für die Entscheidungen übernimmt, die dabei entstehen. Die Antwort ist dieselbe wie immer: der Mensch.

Quellen:
  • Softgarden GmbH (2025): KI trifft Recruiting 2025. Studie mit knapp 7.000 Befragten. Berlin. Abrufbar unter: softgarden.com/de/ressourcen/studien/ki-trifft-recruiting-2025
  • Königsteiner Agentur / Statista (2024): Akzeptanz der Nutzung Künstlicher Intelligenz durch den Arbeitgeber bei der Personalauswahl in Deutschland. Umfrage, Februar 2024. Abrufbar unter: de.statista.com/statistik/daten/studie/1468419
  • BMAS-Denkfabrik / ai:conomics-Team (o. J.): Policy Brief: Künstliche Intelligenz in der Personalauswahl. Bundesministerium für Arbeit und Soziales. Abrufbar unter: denkfabrik-bmas.de
  • AlgorithmWatch / FINDHR-Forschungsprojekt (2024): Automatisch aussortiert? Wenn KI-Systeme in Bewerbungsprozessen diskriminieren. Berlin. Abrufbar unter: algorithmwatch.org/de/diskriminierung-durch-ki-in-der-personalauswahl Rozado, D. (2025): The Strange Behavior of LLMs in Hiring Decisions: Systemic Gender and Positional Biases in Candidate Selection. Zitiert in: Recrutainment Blog, Mai 2025. Abrufbar unter: blog.recrutainment.de
  • Germani, F. / Spitale, G. (2025): Source framing triggers systematic evaluation bias in Large Language Models. Science Advances. Universität Zürich (UZH), Medienmitteilung vom 10. November 2025.
  • Europäisches Parlament / Rat der Europäischen Union (2024): Verordnung (EU) 2024/1689 über Künstliche Intelligenz (EU AI Act). Insbesondere Art. 4 (KI-Kompetenz), Art. 5 (Verbotene Praktiken), Art. 26 (Betreiberpflichten), Anhang III (Hochrisiko-KI-Systeme). Amtsblatt der EU, 12. Juli 2024. Greenberg Traurig LLP (2025): EU AI Act: Key Compliance Considerations ahead of August 2025. Abrufbar unter: gtlaw.com/de/insights/2025/7/eu-ai-act-key-compliance-considerations
  • Bundesverband der Personalmanager e. V. / Dudda-Luzzato, D. (zitiert in): Täglicher Anzeiger Minden (2023): Computerhilfe beim Job: Studie zeigt KI-Nutzung in Bewerbungen. Zitat: „KI ersetzt nur Menschen, die nicht mit KI umgehen können."