top of page

AI-Interviews im Recruiting: Wo Effizienz endet – und Risiko beginnt

  • Autorenbild: Marcus
    Marcus
  • vor 4 Tagen
  • 4 Min. Lesezeit

Künstliche Intelligenz ist im Recruiting längst kein Experimentierfeld mehr. CV-Parsing, Matching-Algorithmen, Chatbots und automatisierte Terminierung gehören zum Alltag vieler Talent-Acquisition-Teams. Der nächste Schritt ist folgerichtig: das Interview selbst. Immer mehr Anbieter versprechen, mit KI-gestützten Video-Interviews Vorauswahl, Objektivität und Skalierbarkeit zu vereinen. Kandidat:innen beantworten standardisierte Fragen, während Algorithmen Sprache, Wortwahl, Sprechtempo, Mimik oder Blickkontakt analysieren und bewerten.


Die zentrale Frage ist jedoch nicht, ob diese Technologie eingesetzt werden kann – sondern ob sie das leisten darf, was ihr zugeschrieben wird. Die wissenschaftliche Evidenz zeichnet ein deutlich differenzierteres Bild als viele Produktbroschüren.



Der Reiz der Automatisierung – und seine Grenzen


Aus Unternehmenssicht sind AI-Interviews attraktiv. Sie reduzieren den Koordinationsaufwand, entlasten Recruiter:innen und versprechen konsistente Bewertungen über grosse Bewerberzahlen hinweg. Studien zeigen, dass standardisierte Verfahren grundsätzlich zu höherer Reliabilität führen können als unstrukturierte Interviews, insbesondere wenn die Interviewer schlecht geschult sind.


Gleichzeitig wird häufig suggeriert, dass KI menschliche Verzerrungen „neutralisiert“. Genau hier beginnt das Problem. Algorithmen treffen keine objektiven Entscheidungen per se. Sie reproduzieren Muster aus Trainingsdaten, Modellannahmen und Designentscheidungen. Wenn diese Ausgangsbasis verzerrt ist, wird der Bias nicht beseitigt, sondern skaliert.



Was die Forschung zu Bias in AI-Interviews sagt


Mehrere interdisziplinäre Studien aus Informatik, Psychologie und Arbeitswissenschaft kommen zu einem konsistenten Befund:

Algorithmische Systeme im Recruiting sind nicht bias-frei, sondern besonders anfällig für indirekte Diskriminierung.

Ein zentrales Problem liegt in den verwendeten Proxy-Merkmalen. Viele AI-Interview-Tools bewerten Eigenschaften wie Stimmlage, Sprechgeschwindigkeit, Wortvielfalt oder Gesichtsausdruck. Für diese Merkmale existiert jedoch keine belastbare Evidenz, dass sie valide Prädiktoren für berufliche Leistung sind – sehr wohl aber Hinweise darauf, dass sie systematisch mit Geschlecht, Alter, kulturellem Hintergrund oder neurologischer Diversität korrelieren.


Studien zeigen unter anderem:

  • Sprachbasierte Modelle benachteiligen Personen mit Akzent, Dialekt oder nicht-linearer Sprechweise.

  • Mimik- und Blickanalyse ist kulturell hochgradig kontextabhängig und führt bei nicht-westlichen Kandidat:innen zu systematisch schlechteren Bewertungen.

  • Altersdiskriminierung kann indirekt entstehen, da Sprechtempo, Wortwahl oder Pausenverhalten stark altersabhängig sind.



Der oft zitierte Fall rund um Workday, bei dem Bewerber:innen eine altersdiskriminierende Wirkung algorithmischer Vorauswahl geltend machen, ist deshalb kein Ausreisser, sondern symptomatisch für ein strukturelles Risiko algorithmischer Systeme im Recruiting.



Validität: Die unbequeme Leerstelle


Ein weiterer kritischer Punkt ist die fehlende empirische Validierung vieler AI-Interview-Lösungen. Während klassische eignungsdiagnostische Verfahren (z. B. strukturierte Interviews, kognitive Leistungstests) über Jahrzehnte hinweg hinsichtlich der Vorhersagegüte untersucht wurden, ist die Datenlage bei KI-gestützten Interviews dünn.


Unabhängige Studien kommen bislang zu keinem eindeutigen Ergebnis, dass AI-basierte Video-Interviews den späteren Job-Erfolg besser vorhersagen als gut strukturierte, menschlich geführte Interviews. In mehreren Publikationen wird explizit darauf hingewiesen, dass viele Anbieter zwar interne Korrelationen berichten, diese jedoch weder transparent noch replizierbar sind.


Aus wissenschaftlicher Sicht ist das problematisch: Ein Auswahlverfahren ohne nachgewiesene Kriteriumsvalidität ist fachlich nicht zu rechtfertigen, unabhängig davon, wie effizient es skaliert.



Bewerbererfahrung: Der unterschätzte Faktor


Neben Fairness und Validität rückt zunehmend auch die Perspektive der Kandidat:innen in den Fokus. Empirische Untersuchungen zur Akzeptanz von AI-Interviews zeichnen ein ambivalentes Bild.


Ein Teil der Bewerber:innen schätzt die zeitliche Flexibilität und die Standardisierung. Gleichzeitig berichten viele von einem Gefühl von Intransparenz und Entfremdung. Besonders kritisch wird wahrgenommen, wenn nicht klar kommuniziert wird:


  • dass eine KI beteiligt ist,

  • welche Daten ausgewertet werden,

  • wie stark das Ergebnis in die finale Entscheidung einfliesst.


Studien zur organisationalen Gerechtigkeit zeigen klar: Wahrgenommene Fairness hängt weniger vom Ergebnis als vom Prozessverständnis ab. Fehlende Transparenz kann somit nicht nur die Candidate Experience, sondern langfristig auch die Arbeitgeberattraktivität schädigen – ein Aspekt, der in vielen Business Cases ausgeblendet wird.



Rechtliche und regulatorische Implikationen


Auch rechtlich stehen AI-Interviews in einem zunehmend anspruchsvollen Rahmen. Datenschutz- und Antidiskriminierungsgesetze gelten unabhängig davon, ob Entscheidungen von Menschen oder von Algorithmen getroffen werden. Mit dem EU AI Act werden zusätzliche Anforderungen an sogenannte „High-Risk-Systeme“ gestellt – darunter explizit auch KI-Anwendungen im Recruiting.


Zentrale Anforderungen sind unter anderem:

  • Nachvollziehbarkeit der Entscheidungslogik

  • Dokumentation von Trainingsdaten und Modellannahmen

  • Möglichkeiten zur menschlichen Überprüfung und Korrektur


Unternehmen, die AI-Interviews als Black Box einsetzen, setzen sich damit nicht nur einem Reputations-, sondern auch einem handfesten Compliance-Risiko aus.



Was verantwortungsvoller Einsatz bedeuten würde


Die Forschung ist keineswegs grundsätzlich technologiefeindlich. Sie macht jedoch klar, dass AI-Interviews nur unter engen Voraussetzungen vertretbar sind. Dazu zählen insbesondere:


  • Klare Zweckbindung: KI darf unterstützen, nicht autonom entscheiden.

  • Empirische Validierung: Nachweis dafür, dass die bewerteten Merkmale tatsächlich arbeitsrelevant sind.

  • Regelmässige Bias-Audits: Überprüfung der Ergebnisse nach Alter, Geschlecht, Herkunft und anderen geschützten Merkmalen.

  • Transparente Kommunikation: Offenlegung gegenüber Bewerber:innen, wie das Verfahren funktioniert und welche Rolle es spielt.

  • Menschliche Entscheidungshoheit: Finale Entscheidungen müssen überprüfbar und begründbar bleiben.


Das ist aufwendig. Und genau deshalb wird es in der Praxis häufig nicht konsequent umgesetzt.



Technisch möglich ist nicht gleich professionell vertretbar


AI-Interviews sind kein neutraler Fortschritt, sondern ein machtvolles Instrument mit realen Nebenwirkungen. Sie versprechen Effizienz, bringen jedoch neue Formen von Intransparenz und Diskriminierung mit sich. Der aktuelle Stand der Forschung zeigt klar:

Weder Fairness noch Validität sind bislang ausreichend belegt, um AI-Interviews als vollwertigen Ersatz menschlicher Auswahlverfahren zu rechtfertigen.

Für Recruiting-Organisationen bedeutet das eine unbequeme, aber notwendige Abwägung. Wer Geschwindigkeit über Qualität stellt, riskiert Fehlentscheidungen – fachlich, rechtlich und reputativ. KI kann Recruiting unterstützen. Die Verantwortung für Entscheidungen lässt sich jedoch nicht automatisieren.


Oder anders gesagt:

Wenn niemand mehr erklären kann, warum jemand eingestellt oder abgelehnt wurde, ist das kein Fortschritt – sondern ein Rückschritt mit besserem Interface.


Quellen & weiterführende Literatur



Kommentare


Binningen, Schweiz

Abo-Formular

Vielen Dank!

  • LinkedIn
  • Twitter
  • Pinterest
  • Facebook

©2020 Marcus Fischer

bottom of page