{"id":143989,"date":"2025-12-25T12:00:42","date_gmt":"2025-12-25T11:00:42","guid":{"rendered":"https:\/\/www.nachdenkseiten.de\/?p=143989"},"modified":"2025-12-24T15:34:09","modified_gmt":"2025-12-24T14:34:09","slug":"wenn-algorithmen-karrieren-stoppen-wie-ki-bei-bewerbungen-reale-ungleichheit-verschaerft","status":"publish","type":"post","link":"https:\/\/www.nachdenkseiten.de\/?p=143989","title":{"rendered":"Wenn Algorithmen Karrieren stoppen: Wie KI bei Bewerbungen reale Ungleichheit versch\u00e4rft"},"content":{"rendered":"<p>Der erste Kontakt zwischen Bewerbern und Unternehmen findet heute oft nicht mehr zwischen Menschen statt. Er findet zwischen Datens&auml;tzen statt. Lebensl&auml;ufe werden hochgeladen, automatisch analysiert, verglichen, sortiert. Wer dabei aussortiert wird, erf&auml;hrt davon meist nur indirekt, als Standardabsage oder gar nicht. Kein Gespr&auml;ch, keine Nachfrage, kein Mensch. Von <strong>G&uuml;nther Burbach<\/strong>.<\/p><p><em>Dieser Beitrag ist auch als Audio-Podcast verf&uuml;gbar.<\/em><br>\n<!--more--><br>\n<\/p><div class=\"powerpress_player\" id=\"powerpress_player_9836\"><!--[if lt IE 9]><script>document.createElement('audio');<\/script><![endif]-->\n<audio class=\"wp-audio-shortcode\" id=\"audio-143989-1\" preload=\"none\" style=\"width: 100%;\" controls=\"controls\"><source type=\"audio\/mpeg\" src=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/251225_Wenn_Algorithmen_Karrieren_stoppen_Wie_KI_bei_Bewerbungen_reale_Ungleichheit_verschaerft_NDS.mp3?_=1\"><\/source><a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/251225_Wenn_Algorithmen_Karrieren_stoppen_Wie_KI_bei_Bewerbungen_reale_Ungleichheit_verschaerft_NDS.mp3\">https:\/\/www.nachdenkseiten.de\/upload\/podcast\/251225_Wenn_Algorithmen_Karrieren_stoppen_Wie_KI_bei_Bewerbungen_reale_Ungleichheit_verschaerft_NDS.mp3<\/a><\/audio><\/div><p class=\"powerpress_links powerpress_links_mp3\">Podcast: <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/251225_Wenn_Algorithmen_Karrieren_stoppen_Wie_KI_bei_Bewerbungen_reale_Ungleichheit_verschaerft_NDS.mp3\" class=\"powerpress_link_pinw\" target=\"_blank\" title=\"Play in new window\" onclick=\"return powerpress_pinw('https:\/\/www.nachdenkseiten.de\/?powerpress_pinw=143989-podcast');\" rel=\"nofollow\">Play in new window<\/a> | <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/251225_Wenn_Algorithmen_Karrieren_stoppen_Wie_KI_bei_Bewerbungen_reale_Ungleichheit_verschaerft_NDS.mp3\" class=\"powerpress_link_d\" title=\"Download\" rel=\"nofollow\" download=\"251225_Wenn_Algorithmen_Karrieren_stoppen_Wie_KI_bei_Bewerbungen_reale_Ungleichheit_verschaerft_NDS.mp3\">Download<\/a><\/p><p>Was Unternehmen als Effizienzgewinn verkaufen, ist f&uuml;r Bewerber ein Kontrollverlust. Denn die Entscheidung, ob ein Mensch &uuml;berhaupt eine Chance bekommt, liegt zunehmend bei Systemen, deren Funktionsweise niemand offenlegt und f&uuml;r deren Fehler niemand verantwortlich sein will.<\/p><p>Das Problem beginnt nicht bei der Technik, sondern bei der Delegation von Verantwortung.<\/p><p>In vielen gro&szlig;en Unternehmen entscheidet heute eine Software, welche Bewerbungen &uuml;berhaupt von Personalverantwortlichen gesehen werden. Diese Systeme scannen Lebensl&auml;ufe nach Schlagworten, vergleichen Karrieren mit statistischen Erfolgsprofilen und vergeben Eignungsscores. Wer unter eine bestimmte Schwelle f&auml;llt, wird aussortiert, unabh&auml;ngig davon, ob Qualifikation, Motivation oder Potenzial tats&auml;chlich fehlen.<\/p><p><strong>Der Bewerber merkt davon nichts<\/strong><\/p><p>Das ist keine Ausnahme, sondern Standard bei internationalen Konzernen, Plattformunternehmen und zunehmend auch im Mittelstand. Der Bewerber merkt davon nichts. Er wei&szlig; nicht, dass seine Unterlagen nie von einem Menschen gelesen wurden. Er wei&szlig; nicht, warum er abgelehnt wurde. Er wei&szlig; nur: wieder eine Absage.<\/p><p>Diese Intransparenz ist kein Nebeneffekt, sondern Teil des Systems.<\/p><p>Eines der fr&uuml;hesten und lehrreichsten Beispiele stammt von Amazon. Der Konzern entwickelte &uuml;ber Jahre ein KI-System zur automatisierten Bewerberbewertung. Das System lernte aus fr&uuml;heren Einstellungsentscheidungen. Das Ergebnis: Frauen wurden systematisch schlechter bewertet. Lebensl&auml;ufe mit Hinweisen auf Frauenf&ouml;rderprogramme oder weiblich dominierte Aktivit&auml;ten fielen durch.<\/p><p>Amazon stoppte das Projekt. Doch die entscheidende Frage lautet: Wie viele Unternehmen bemerken solche Effekte nicht, oder nehmen sie bewusst in Kauf?<\/p><p>Denn der Fehler lag nicht im Code, sondern im Lernprinzip. KI bildet ab, was war. Wenn Unternehmen in der Vergangenheit bestimmte Gruppen bevorzugt haben, reproduziert die Maschine genau diese Realit&auml;t effizienter, schneller und schwerer angreifbar.<\/p><p>Ein aktueller Fall zeigt, dass diese Probleme l&auml;ngst juristische Dimensionen haben. In den USA wurde gegen den HR-Softwareanbieter &bdquo;Workday&ldquo; Klage eingereicht. Bewerber warfen dem Unternehmen vor, durch KI-gest&uuml;tzte Vorauswahl systematisch &auml;ltere Menschen, Menschen mit Behinderungen und ethnische Minderheiten benachteiligt zu haben.<\/p><p>Der entscheidende Punkt ist nicht nur der Vorwurf, sondern die Struktur dahinter. &bdquo;Workday&ldquo; argumentierte, man stelle lediglich Software bereit. Die Entscheidung treffe der Kunde. Die Unternehmen wiederum verwiesen auf das Tool. Niemand f&uuml;hlte sich verantwortlich.<\/p><p>Genau hier liegt die neue Qualit&auml;t der Ungerechtigkeit: Diskriminierung ohne Diskriminierende. Kein Personalchef, kein Sachbearbeiter, keine klare Entscheidung. Nur ein System, das &bdquo;empfiehlt&ldquo;.<\/p><p>Besonders problematisch wurde der Einsatz von KI bei Video-Interviews. Anbieter wie &bdquo;HireVue&ldquo; versprachen, aus Mimik, Sprache und Gestik R&uuml;ckschl&uuml;sse auf Pers&ouml;nlichkeit, Belastbarkeit und Motivation zu ziehen. Bewerber wurden vor der Kamera analysiert, Scores berechnet, Ranglisten erstellt.<\/p><p><strong>Systematische Benachteiligung<\/strong><\/p><p>Kritiker warnten fr&uuml;h: Diese Systeme messen keine Eignung, sondern Abweichung von Normen. Menschen mit Akzent, neurodiverse Personen oder Bewerber mit Behinderungen wurden systematisch benachteiligt. Die Technologie suggerierte Objektivit&auml;t, beruhte aber auf fragw&uuml;rdigen Annahmen dar&uuml;ber, wie &bdquo;geeignete&ldquo; Menschen aussehen und sprechen.<\/p><p>&bdquo;HireVue&ldquo; zog Teile dieser Technologie sp&auml;ter zur&uuml;ck, doch der Schaden war da. Tausende Bewerbungen waren bereits bewertet worden, ohne dass die Betroffenen wussten, auf welcher Grundlage.<\/p><p>Mehrere Untersuchungen zeigen, dass bereits Namen einen Unterschied machen. Bewerbungen mit &bdquo;nicht-typisch&ldquo; klingenden Namen schneiden bei KI-gest&uuml;tzter Vorauswahl schlechter ab, selbst bei identischer Qualifikation. Das liegt nicht an &bdquo;b&ouml;ser Absicht&ldquo;, sondern an statistischer &Auml;hnlichkeit. Systeme bevorzugen Profile, die dem bisherigen Erfolgsbild &auml;hneln.<\/p><p>Wer einen geradlinigen Lebenslauf hat, wer die &bdquo;richtigen&ldquo; Stationen vorweisen kann, wer in das statistische Raster passt, hat Vorteile. Wer Umwege gegangen ist, sp&auml;ter eingestiegen ist oder aus anderen sozialen Kontexten kommt, wird schneller aussortiert. So wird Vielfalt nicht gef&ouml;rdert, sondern systematisch herausgerechnet.<\/p><p><strong>KI bevorzugt KI<\/strong><\/p><p>Ein besonders perfider Effekt zeigt sich zunehmend im Alltag: Bewerbungen, die selbst mit KI erstellt wurden, passen besser zu KI-gest&uuml;tzten Auswahlverfahren. Struktur, Wortwahl und Logik entsprechen exakt dem, was die Systeme erwarten.<\/p><p>Das f&uuml;hrt zu einer paradoxen Situation: Nicht Qualifikation entscheidet, sondern Anpassung an maschinelle Erwartungen. Wer keinen Zugang zu solchen Tools hat oder bewusst darauf verzichtet, hat schlechtere Chancen. So entsteht eine neue Form digitaler Klassengesellschaft, leise, effizient und schwer angreifbar.<\/p><p>Unternehmen betonen gern, dass am Ende ein Mensch entscheidet. In der Praxis zeigt sich jedoch ein anderes Muster: &bdquo;Recruiter&ldquo; folgen algorithmischen Empfehlungen &uuml;berdurchschnittlich h&auml;ufig. Scores und Rankings wirken objektiv. Wer widerspricht, muss sich rechtfertigen.<\/p><p>Die Verantwortung verschiebt sich. Nicht mehr das System muss erkl&auml;rt werden, sondern die Abweichung vom System.<\/p><p><strong>Diskriminierung ist verboten &ndash; doch KI macht sie unsichtbar<\/strong><\/p><p>Entscheidungslogiken sind gesch&uuml;tzt, Trainingsdaten geheim, Ablehnungen nicht begr&uuml;ndet. Bewerber k&ouml;nnen kaum klagen, weil sie nicht wissen, was gegen sie entschieden hat.<\/p><p>Der Rechtsrahmen hinkt hinterher. W&auml;hrend KI im Recruiting l&auml;ngst Alltag ist, fehlen klare Regeln zu Transparenz, Haftung und Pr&uuml;fpflichten. Solange das so bleibt, tragen Bewerber das Risiko, nicht die Unternehmen.<\/p><p>KI im Recruiting spart Zeit und Geld. Aber sie erzeugt neue Ungleichheiten, verschiebt Verantwortung und macht Diskriminierung schwerer sichtbar. Das Problem ist nicht Technologie, sondern ihr Einsatz ohne Kontrolle.<\/p><p>Solange Unternehmen Entscheidungen an Systeme delegieren k&ouml;nnen, ohne f&uuml;r deren Folgen einzustehen, bleibt KI im Recruiting kein neutrales Werkzeug, sondern ein Machtinstrument mit realen Folgen f&uuml;r reale Menschen.<\/p><p><small>Titelbild: shutterstock.com \/ Summit Art Creations<\/small><\/p><div class=\"hr_wrap\">\n<hr>\n<\/div><div class=\"footnote\">\n<small><strong>Quellen:<\/strong><\/small>\n<p><small>Financial Times<br>\n<a href=\"https:\/\/www.ft.com\/content\/229983ee-c11f-44fb-8e61-2ac61d8d100a\">&bdquo;The perils of using AI when recruiting&ldquo;<\/a><\/small><\/p>\n<p><small>Reuters<br>\n<a href=\"https:\/\/www.reuters.com\/legal\/legalindustry\/mediating-disputes-age-algorithmic-hiring--pracin-2025-12-08\/\">&bdquo;Mediating disputes in the age of algorithmic hiring&ldquo; (Klage gegen Workday)<\/a><\/small><\/p>\n<p><small>The Guardian<br>\n<a href=\"https:\/\/www.theguardian.com\/australia-news\/2025\/may\/14\/people-interviewed-by-ai-for-jobs-face-discrimination-risks-australian-study-warns\">&bdquo;People interviewed by AI for jobs face discrimination risks, Australian study warns&ldquo;<\/a><\/small><\/p>\n<p><small>AlgorithmWatch<br>\n<a href=\"https:\/\/algorithmwatch.org\/de\/\">&bdquo;Diskriminierende KI bei Bewerbungen&ldquo;<\/a><\/small><\/p>\n<p><small>VoxDev<br>\n<a href=\"https:\/\/voxdev.org\/topic\/technology-innovation\/ai-hiring-tools-exhibit-complex-gender-and-racial-biases\">&bdquo;AI hiring tools exhibit complex gender and racial biases&ldquo;<\/a><\/small><\/p>\n<p><small>University of Washington<br>\n<a href=\"https:\/\/www.washington.edu\/news\/2024\/10\/31\/ai-bias-resume-screening-race-gender\/\">&bdquo;AI tools show bias in ranking job applicants&lsquo; names&ldquo;<\/a><\/small><\/p>\n<p><small>AP News<br>\n<a href=\"https:\/\/apnews.com\/article\/a2e8aba11f3d3f095df95d488c6b3c40\">&bdquo;Civil rights agency drops a key tool used to investigate workplace discrimination&ldquo;<\/a><\/small>\n<\/p><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Der erste Kontakt zwischen Bewerbern und Unternehmen findet heute oft nicht mehr zwischen Menschen statt. Er findet zwischen Datens&auml;tzen statt. Lebensl&auml;ufe werden hochgeladen, automatisch analysiert, verglichen, sortiert. Wer dabei aussortiert wird, erf&auml;hrt davon meist nur indirekt, als Standardabsage oder gar nicht. Kein Gespr&auml;ch, keine Nachfrage, kein Mensch. Von <strong>G&uuml;nther Burbach<\/strong>.<\/p>\n<p><em>Dieser Beitrag ist auch als Audio-Podcast<\/em><\/p>\n<div class=\"readMore\"><a class=\"moretag\" href=\"https:\/\/www.nachdenkseiten.de\/?p=143989\">Weiterlesen<\/a><\/div>\n","protected":false},"author":11,"featured_media":144004,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"spay_email":"","footnotes":""},"categories":[141,107,161],"tags":[1183,1805,827,687],"class_list":["post-143989","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-arbeitsmarkt-und-arbeitsmarktpolitik","category-audio-podcast","category-wertedebatte","tag-exklusion","tag-kuenstliche-intelligenz","tag-stigmatisierung","tag-ungleichheit"],"jetpack_featured_media_url":"https:\/\/www.nachdenkseiten.de\/wp-content\/uploads\/2025\/12\/shutterstock_2622740543.jpg","_links":{"self":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/143989","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=143989"}],"version-history":[{"count":6,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/143989\/revisions"}],"predecessor-version":[{"id":144219,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/143989\/revisions\/144219"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/media\/144004"}],"wp:attachment":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=143989"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=143989"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=143989"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}