Wenn Algorithmen Karrieren stoppen: Wie KI bei Bewerbungen reale Ungleichheit verschärft

Wenn Algorithmen Karrieren stoppen: Wie KI bei Bewerbungen reale Ungleichheit verschärft

Wenn Algorithmen Karrieren stoppen: Wie KI bei Bewerbungen reale Ungleichheit verschärft

Ein Artikel von Günther Burbach

Der erste Kontakt zwischen Bewerbern und Unternehmen findet heute oft nicht mehr zwischen Menschen statt. Er findet zwischen Datensätzen statt. Lebensläufe werden hochgeladen, automatisch analysiert, verglichen, sortiert. Wer dabei aussortiert wird, erfährt davon meist nur indirekt, als Standardabsage oder gar nicht. Kein Gespräch, keine Nachfrage, kein Mensch. Von Günther Burbach.

Dieser Beitrag ist auch als Audio-Podcast verfügbar.

Was Unternehmen als Effizienzgewinn verkaufen, ist für Bewerber ein Kontrollverlust. Denn die Entscheidung, ob ein Mensch überhaupt eine Chance bekommt, liegt zunehmend bei Systemen, deren Funktionsweise niemand offenlegt und für deren Fehler niemand verantwortlich sein will.

Das Problem beginnt nicht bei der Technik, sondern bei der Delegation von Verantwortung.

In vielen großen Unternehmen entscheidet heute eine Software, welche Bewerbungen überhaupt von Personalverantwortlichen gesehen werden. Diese Systeme scannen Lebensläufe nach Schlagworten, vergleichen Karrieren mit statistischen Erfolgsprofilen und vergeben Eignungsscores. Wer unter eine bestimmte Schwelle fällt, wird aussortiert, unabhängig davon, ob Qualifikation, Motivation oder Potenzial tatsächlich fehlen.

Der Bewerber merkt davon nichts

Das ist keine Ausnahme, sondern Standard bei internationalen Konzernen, Plattformunternehmen und zunehmend auch im Mittelstand. Der Bewerber merkt davon nichts. Er weiß nicht, dass seine Unterlagen nie von einem Menschen gelesen wurden. Er weiß nicht, warum er abgelehnt wurde. Er weiß nur: wieder eine Absage.

Diese Intransparenz ist kein Nebeneffekt, sondern Teil des Systems.

Eines der frühesten und lehrreichsten Beispiele stammt von Amazon. Der Konzern entwickelte über Jahre ein KI-System zur automatisierten Bewerberbewertung. Das System lernte aus früheren Einstellungsentscheidungen. Das Ergebnis: Frauen wurden systematisch schlechter bewertet. Lebensläufe mit Hinweisen auf Frauenförderprogramme oder weiblich dominierte Aktivitäten fielen durch.

Amazon stoppte das Projekt. Doch die entscheidende Frage lautet: Wie viele Unternehmen bemerken solche Effekte nicht, oder nehmen sie bewusst in Kauf?

Denn der Fehler lag nicht im Code, sondern im Lernprinzip. KI bildet ab, was war. Wenn Unternehmen in der Vergangenheit bestimmte Gruppen bevorzugt haben, reproduziert die Maschine genau diese Realität effizienter, schneller und schwerer angreifbar.

Ein aktueller Fall zeigt, dass diese Probleme längst juristische Dimensionen haben. In den USA wurde gegen den HR-Softwareanbieter „Workday“ Klage eingereicht. Bewerber warfen dem Unternehmen vor, durch KI-gestützte Vorauswahl systematisch ältere Menschen, Menschen mit Behinderungen und ethnische Minderheiten benachteiligt zu haben.

Der entscheidende Punkt ist nicht nur der Vorwurf, sondern die Struktur dahinter. „Workday“ argumentierte, man stelle lediglich Software bereit. Die Entscheidung treffe der Kunde. Die Unternehmen wiederum verwiesen auf das Tool. Niemand fühlte sich verantwortlich.

Genau hier liegt die neue Qualität der Ungerechtigkeit: Diskriminierung ohne Diskriminierende. Kein Personalchef, kein Sachbearbeiter, keine klare Entscheidung. Nur ein System, das „empfiehlt“.

Besonders problematisch wurde der Einsatz von KI bei Video-Interviews. Anbieter wie „HireVue“ versprachen, aus Mimik, Sprache und Gestik Rückschlüsse auf Persönlichkeit, Belastbarkeit und Motivation zu ziehen. Bewerber wurden vor der Kamera analysiert, Scores berechnet, Ranglisten erstellt.

Systematische Benachteiligung

Kritiker warnten früh: Diese Systeme messen keine Eignung, sondern Abweichung von Normen. Menschen mit Akzent, neurodiverse Personen oder Bewerber mit Behinderungen wurden systematisch benachteiligt. Die Technologie suggerierte Objektivität, beruhte aber auf fragwürdigen Annahmen darüber, wie „geeignete“ Menschen aussehen und sprechen.

„HireVue“ zog Teile dieser Technologie später zurück, doch der Schaden war da. Tausende Bewerbungen waren bereits bewertet worden, ohne dass die Betroffenen wussten, auf welcher Grundlage.

Mehrere Untersuchungen zeigen, dass bereits Namen einen Unterschied machen. Bewerbungen mit „nicht-typisch“ klingenden Namen schneiden bei KI-gestützter Vorauswahl schlechter ab, selbst bei identischer Qualifikation. Das liegt nicht an „böser Absicht“, sondern an statistischer Ähnlichkeit. Systeme bevorzugen Profile, die dem bisherigen Erfolgsbild ähneln.

Wer einen geradlinigen Lebenslauf hat, wer die „richtigen“ Stationen vorweisen kann, wer in das statistische Raster passt, hat Vorteile. Wer Umwege gegangen ist, später eingestiegen ist oder aus anderen sozialen Kontexten kommt, wird schneller aussortiert. So wird Vielfalt nicht gefördert, sondern systematisch herausgerechnet.

KI bevorzugt KI

Ein besonders perfider Effekt zeigt sich zunehmend im Alltag: Bewerbungen, die selbst mit KI erstellt wurden, passen besser zu KI-gestützten Auswahlverfahren. Struktur, Wortwahl und Logik entsprechen exakt dem, was die Systeme erwarten.

Das führt zu einer paradoxen Situation: Nicht Qualifikation entscheidet, sondern Anpassung an maschinelle Erwartungen. Wer keinen Zugang zu solchen Tools hat oder bewusst darauf verzichtet, hat schlechtere Chancen. So entsteht eine neue Form digitaler Klassengesellschaft, leise, effizient und schwer angreifbar.

Unternehmen betonen gern, dass am Ende ein Mensch entscheidet. In der Praxis zeigt sich jedoch ein anderes Muster: „Recruiter“ folgen algorithmischen Empfehlungen überdurchschnittlich häufig. Scores und Rankings wirken objektiv. Wer widerspricht, muss sich rechtfertigen.

Die Verantwortung verschiebt sich. Nicht mehr das System muss erklärt werden, sondern die Abweichung vom System.

Diskriminierung ist verboten – doch KI macht sie unsichtbar

Entscheidungslogiken sind geschützt, Trainingsdaten geheim, Ablehnungen nicht begründet. Bewerber können kaum klagen, weil sie nicht wissen, was gegen sie entschieden hat.

Der Rechtsrahmen hinkt hinterher. Während KI im Recruiting längst Alltag ist, fehlen klare Regeln zu Transparenz, Haftung und Prüfpflichten. Solange das so bleibt, tragen Bewerber das Risiko, nicht die Unternehmen.

KI im Recruiting spart Zeit und Geld. Aber sie erzeugt neue Ungleichheiten, verschiebt Verantwortung und macht Diskriminierung schwerer sichtbar. Das Problem ist nicht Technologie, sondern ihr Einsatz ohne Kontrolle.

Solange Unternehmen Entscheidungen an Systeme delegieren können, ohne für deren Folgen einzustehen, bleibt KI im Recruiting kein neutrales Werkzeug, sondern ein Machtinstrument mit realen Folgen für reale Menschen.

Titelbild: shutterstock.com / Summit Art Creations


Die NachDenkSeiten sind für eine kritische Meinungsbildung wichtig, das sagen uns sehr, sehr viele - aber sie kosten auch Geld und deshalb bitten wir Sie, liebe Leser, um Ihre Unterstützung.
Herzlichen Dank!

Beitrag versenden

Sie kennen jemand der sich für diesen Beitrag interessieren könnte?
Dann schicken Sie ihm einen kleinen Auszug des Beitrags über dieses Formular oder direkt über Ihr E-Mail-Programm!