{"id":124044,"date":"2024-11-01T11:00:40","date_gmt":"2024-11-01T10:00:40","guid":{"rendered":"https:\/\/www.nachdenkseiten.de\/?p=124044"},"modified":"2024-11-01T12:00:26","modified_gmt":"2024-11-01T11:00:26","slug":"kuenstliche-intelligenz-der-eu-ai-act-oder-das-schaf-im-wolfspelz","status":"publish","type":"post","link":"https:\/\/www.nachdenkseiten.de\/?p=124044","title":{"rendered":"K\u00fcnstliche Intelligenz: Der \u201eEU AI Act\u201c &#8211; Oder das Schaf im Wolfspelz"},"content":{"rendered":"<p>Der EU AI Act zur K&uuml;nstlichen Intelligenz bietet keine umfassende Sicherheit &ndash; vielmehr k&ouml;nnten sich bekannte Gro&szlig;unternehmen einen Anstrich von Transparenz und regulierter K&uuml;nstlicher Intelligenz geben, ohne tats&auml;chlich nach diesen Prinzipien zu handeln. Es braucht aber Regeln, die konsequent und f&uuml;r alle gleicherma&szlig;en gelten. Von<strong> G&uuml;nther Burbach.<\/strong><\/p><p><em>Dieser Beitrag ist auch als Audio-Podcast verf&uuml;gbar.<\/em><br>\n<!--more--><br>\n<\/p><div class=\"powerpress_player\" id=\"powerpress_player_6278\"><!--[if lt IE 9]><script>document.createElement('audio');<\/script><![endif]-->\n<audio class=\"wp-audio-shortcode\" id=\"audio-124044-1\" preload=\"none\" style=\"width: 100%;\" controls=\"controls\"><source type=\"audio\/mpeg\" src=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/241031-EU-AI-Act-NDS.mp3?_=1\"><\/source><a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/241031-EU-AI-Act-NDS.mp3\">https:\/\/www.nachdenkseiten.de\/upload\/podcast\/241031-EU-AI-Act-NDS.mp3<\/a><\/audio><\/div><p class=\"powerpress_links powerpress_links_mp3\">Podcast: <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/241031-EU-AI-Act-NDS.mp3\" class=\"powerpress_link_pinw\" target=\"_blank\" title=\"Play in new window\" onclick=\"return powerpress_pinw('https:\/\/www.nachdenkseiten.de\/?powerpress_pinw=124044-podcast');\" rel=\"nofollow\">Play in new window<\/a> | <a href=\"https:\/\/www.nachdenkseiten.de\/upload\/podcast\/241031-EU-AI-Act-NDS.mp3\" class=\"powerpress_link_d\" title=\"Download\" rel=\"nofollow\" download=\"241031-EU-AI-Act-NDS.mp3\">Download<\/a><\/p><p>Am 21. Mai 2024 wurde der EU AI Act beschlossen. Was als beispielhafte und einmalige Richtlinie angepriesen wird, ist in Wirklichkeit nur ein Papiertiger. Auch wenn der Wille zur Regulierung im Bereich der K&uuml;nstlichen Intelligenz (KI) scheinbar vorhanden ist, mangelt es deutlich an einer konsequenten Umsetzung. Zu einzelnen Punkten wird weiterhin verhandelt und teilweise nachgebessert. Doch eines ist bereits klar: Die grundlegenden Prinzipien stehen fest. KI-Systeme sollen nach Risikoklassen eingeteilt werden. Hochrisiko-Anwendungen unterliegen dabei strengen Auflagen, w&auml;hrend Systeme mit niedrigem Risiko kaum Einschr&auml;nkungen f&uuml;rchten m&uuml;ssen.<\/p><p>Nat&uuml;rlich ist der EU AI Act einzigartig und sollte durchaus als Vorbild dienen. Schlie&szlig;lich ist eine schlechte Regulierung immer noch besser als gar keine. Doch k&uuml;nftig sollten weniger L&uuml;cken und Schlupfl&ouml;cher bestehen. Betrachtet man die Regelungen im Detail, dr&auml;ngt sich der Verdacht auf, dass auch gro&szlig;e Lobbyorganisationen Einfluss auf die Verhandlungen genommen haben k&ouml;nnten. Zwar wurden die Risiken unregulierter KI offensichtlich erkannt &ndash; jedenfalls von einigen Abgeordneten in Br&uuml;ssel. Doch wirklich schmerzhaft einschr&auml;nken m&ouml;chte man anscheinend niemanden. M&auml;chtige Interessengruppen k&ouml;nnten immer noch gesetzliche L&uuml;cken nutzen, um ihre Gesch&auml;ftsmodelle abzusichern.<\/p><p>Eine entscheidende Rolle spielt die Kategorisierung, bei deren Definition genau diese Interessengruppen ihren Einfluss geltend gemacht haben und weiterhin machen. Den B&uuml;rgern der EU wird erneut vor Augen gef&uuml;hrt, wie gutgemeinter politischer Wille im Konflikt mit gro&szlig;em Kapital steht. Die Einstufung als vermeintlich geringes Risiko kann dabei bares Geld wert sein &ndash; besonders, wenn es gelingt, durch das Dauerfeuer der Lobbyverb&auml;nde das eigene Gesch&auml;ftsmodell in die niedrigste Risikoklasse einzuordnen.<\/p><p><strong>Datenmissbrauch durch soziale Medien<\/strong><\/p><p>Anwendungen mit geringem Risiko werden oft von sozialen Medien oder f&uuml;r personalisierte Werbung genutzt. Die gro&szlig;en Unternehmen hinter diesen &bdquo;Datenkraken&ldquo; stellen solche Systeme als &uuml;berwiegend harmlos dar und werden dabei von einer starken Lobby unterst&uuml;tzt. F&uuml;r uns als Verbraucher stellt sich also die Frage: Ist das wirklich so unbedenklich, wie es von den Profiteuren dieser Einstufung dargestellt wird?<\/p><p>Gerade die Firmen, die als &bdquo;geringes Risiko&ldquo; eingestuft werden, pr&auml;gen unseren Alltag erheblich. Wer ist heutzutage nicht auf einer der gro&szlig;en Plattformen, um sich zu vernetzen, zu spielen oder einen neuen Partner zu finden? Doch &uuml;berall werden Daten erhoben, die das Fundament f&uuml;r Nutzeranalysen und Microtargeting bilden. Diese scheinbar harmlosen Anwendungen dringen immer tiefer in unsere Privatsph&auml;re ein und er&ouml;ffnen ein gro&szlig;es Potenzial f&uuml;r Manipulation durch gezielte Werbung. Die erhobenen Daten k&ouml;nnten au&szlig;erdem von Drittanbietern oder sogar staatlichen Stellen genutzt werden. Ohne st&auml;rkere Regulierung k&ouml;nnen Unternehmen umfassende Verhaltensprognosen ihrer Nutzer erstellen, was Manipulationen durch gezielte Einflussnahme T&uuml;r und Tor &ouml;ffnen k&ouml;nnte. Ein &ouml;ffentlich gewordener Fall ist der Skandal um Cambridge Analytics, wo Daten von Millionen Facebook-Nutzern ohne deren Zustimmung benutzt wurden, um politische Kampagnen zu beeinflussen.<\/p><p><strong>Selbstlernende Systeme<\/strong><\/p><p>Eine weitere, sehr ernst zu nehmende L&uuml;cke im EU AI Act zeigt sich im Bereich selbstlernender und autonomer Systeme. Der Act sieht zwar vor, dass Systeme vor ihrem Einsatz gepr&uuml;ft und klassifiziert werden &ndash; ein guter Ansatz, der jedoch f&uuml;r autonome und selbstlernende Systeme nicht weit genug geht. Diese Systeme entwickeln sich eigenst&auml;ndig weiter und k&ouml;nnten innerhalb k&uuml;rzester Zeit ihre Risikostufe ver&auml;ndern, ohne dass eine erneute Pr&uuml;fung erforderlich w&auml;re.<\/p><p>Das bedeutet, dass sich die Algorithmen autonomer Systeme m&ouml;glicherweise so ver&auml;ndern, dass sie profitabler, aber zugleich unethischer werden. So k&ouml;nnte beispielsweise ein Algorithmus, der auf die Daten einer Krankenversicherung zugreift, entscheiden, Personen ab f&uuml;nfzig Jahren eine Selbstbeteiligung f&uuml;r kostenfreie Leistungen zu berechnen. Dies k&ouml;nnte schlicht auf der Grundlage geschehen, dass diese Altersgruppe statistisch h&auml;ufiger Leistungen in Anspruch nimmt als j&uuml;ngere Menschen.<\/p><p><strong>Autonome Waffensysteme<\/strong><\/p><p>Die kritischste und gef&auml;hrlichste Schwachstelle im EU AI Act liegt jedoch im Bereich autonomer Waffensysteme. Zuvor eingestufte Systeme k&ouml;nnten zweckentfremdet werden, eine urspr&uuml;nglich harmlose &Uuml;berwachungsdrohne k&ouml;nnte etwa zu einer Angriffsdrohne umprogrammiert werden. Angesichts der erheblichen Investitionen in autonome Waffentechnologien durch global agierende Gro&szlig;unternehmen kann man nur mutma&szlig;en, was mit diesen Systemen tats&auml;chlich m&ouml;glich ist. Zu bef&uuml;rchten ist jedoch, dass die Fortschritte autonomer Systeme letztlich katastrophale Folgen haben k&ouml;nnten. Beispielhaft daf&uuml;r k&ouml;nnten autonome Drohnen sein, die unabh&auml;ngige Entscheidungen &uuml;ber Zielangriffe treffen k&ouml;nnen, was zu unvorhersehbaren Konsequenzen, gerade in Kriegsgebieten, f&uuml;hren k&ouml;nnte.<\/p><p><strong>Begrenzte Reichweite<\/strong><\/p><p>Ein weiterer Schwachpunkt des EU AI Acts liegt in seiner begrenzten Reichweite. Die Vorschriften gelten ausschlie&szlig;lich f&uuml;r Unternehmen mit Sitz in der EU und f&uuml;r Firmen, die gezielt Produkte und Dienstleistungen in die EU liefern. Internationale Konzerne mit Datenzentren oder Entwicklungsabteilungen au&szlig;erhalb der EU k&ouml;nnten jedoch genau diese L&uuml;cken nutzen. Auch in der EU ans&auml;ssige Unternehmen k&ouml;nnten Standorte in Drittl&auml;ndern aufbauen, in denen keine strengen KI-Regulierungen bestehen. So k&ouml;nnten sie Daten und Modelle au&szlig;erhalb der EU weiterentwickeln und anschlie&szlig;end in die EU importieren und die europ&auml;ischen Vorschriften so weitgehend umgehen.<\/p><p>Diese Strategie erinnert an das bekannte Vorgehen: &bdquo;Wenn ich meine eigenen Landsleute nicht ausspionieren darf, beauftrage ich eben einen anderen Staat damit und lasse mir die Informationen &uuml;bermitteln.&ldquo;<\/p><p><strong>Transparenz<\/strong><\/p><p>Was n&uuml;tzt die beste Regulierung, wenn es an Transparenz fehlt? Da der EU AI Act die Transparenzanforderungen nicht universell festlegt, k&ouml;nnen Unternehmen in bestimmten F&auml;llen die Details ihrer Systeme geheimhalten, unter Berufung auf den Schutz von Betriebsgeheimnissen. So verst&auml;ndlich es ist, dass gro&szlig;e Marktf&uuml;hrer ihre internen Abl&auml;ufe sch&uuml;tzen m&ouml;chten, birgt genau diese Intransparenz erhebliche Risiken. Gro&szlig;e Plattformen k&ouml;nnten sich auf den Schutz ihrer Betriebsgeheimnisse berufen, um die Transparenzvorgaben zu umgehen. Dadurch w&auml;re es ihnen m&ouml;glich, tiefgreifende Nutzeranalysen und Manipulationsstrategien zu entwickeln, ohne dass Benutzer oder Beh&ouml;rden die Mechanismen dahinter nachvollziehen k&ouml;nnen.<\/p><p><strong>Gesichtserkennungstechnologie<\/strong><\/p><p>Im Bereich der Gesichtserkennung und biometrischen Systeme sieht der EU AI Act zwar Regelungen vor, spricht jedoch kein pauschales Verbot aus. Angesichts des potenziellen Einsatzes zur Massen&uuml;berwachung w&auml;re jedoch eine klar formulierte und restriktivere Regelung dringend erforderlich. Ausnahmeregelungen bestehen beispielsweise f&uuml;r private Sicherheitsanwendungen und Systeme zur Strafverfolgung, die private Sicherheitsdienste f&uuml;r ihre Zwecke nutzen k&ouml;nnten. Sie k&ouml;nnten dabei argumentieren, dass das hohe Risiko ihrer Arbeit den Einsatz dieser Technologie rechtfertigt. <\/p><p>Zudem gibt es sprachliche L&uuml;cken, die es Sicherheitsunternehmen erm&ouml;glichen k&ouml;nnten, &Uuml;berwachungstechnologien zu etablieren. Wie gef&auml;hrlich es werden k&ouml;nnte, zeigt sich beim Einsatz von Gesichtserkennung in der Polizeiarbeit. Wie schnell w&uuml;rde eine fehlerhafte Identifikation zu einem pers&ouml;nlichen Drama, das ganze Existenzen vernichten k&ouml;nnte? Hier sollte dringend nachgebessert werden, um eine fl&auml;chendeckende &Uuml;berwachung zu verhindern.<\/p><p><strong>Fazit<\/strong><\/p><p>Die genannten Schw&auml;chen machen deutlich, dass der EU AI Act keine umfassende Sicherheit f&uuml;r die Zukunft bietet. Vielmehr k&ouml;nnten sich bekannte Gro&szlig;unternehmen einen Anstrich von Transparenz und regulierter KI geben, ohne tats&auml;chlich nach diesen Prinzipien zu handeln. Es braucht Regeln, die konsequent und f&uuml;r alle gleicherma&szlig;en gelten. Betriebsgeheimnisse d&uuml;rfen nicht als Vorwand f&uuml;r Intransparenz genutzt werden. Unternehmen, die Daten ihrer Nutzer zur Gewinnmaximierung einsetzen, sollten verpflichtet werden offenzulegen, wie diese Daten verwendet werden und welche Gewinne daraus erzielt werden. Vielen Menschen w&uuml;rde dadurch klarer werden, dass angeblich kostenlose Sozial-Media-Plattformen keineswegs selbstlos handeln. <\/p><p>Nat&uuml;rlich hat sich die Politik bei der Erarbeitung dieses Acts auf viele Fachleute verlassen. Es bleibt jedoch die Frage, in wessen Dienst diese Experten stehen. Es l&auml;sst sich durchaus vermuten, dass m&ouml;glicherweise die Marktakteure selbst dar&uuml;ber entschieden haben, welche Regeln die Politik festlegen sollte. Vergleichbar mit einem verkleideten Wurm, der die Angelzeiten bestimmt.<\/p><p>Es herrscht gro&szlig;e Sorge, dass die EU im Bereich der KI-Entwicklung den weltweiten Anschluss verlieren k&ouml;nnte. Diese Angst ist durchaus berechtigt, sollte jedoch nicht dazu f&uuml;hren, dass grunds&auml;tzlich gute Ans&auml;tze zur Regulierung durch Ausnahmen und L&uuml;cken zu einem Schaf im Wolfspelz werden. KI kann insbesondere im Gesundheitssektor erhebliche Fortschritte bringen, die dem Allgemeinwohl zugutekommen k&ouml;nnen, etwa in der Fr&uuml;herkennung schwerwiegender Krankheiten, wo KI einen unsch&auml;tzbaren Beitrag leisten k&ouml;nnte. Gleichzeitig d&uuml;rfen wir aber nicht vergessen, dass K&uuml;nstliche Intelligenz sich ebenso zur Erstellung von Nutzerprofilen eignet, etwa indem sie aus Kaufverhalten auf ungesunde Lebensweisen schlie&szlig;en k&ouml;nnte.<\/p><p>Zusammenfassend l&auml;sst sich sagen, dass der EU AI Act zwar einen ersten Schritt in die richtige Richtung darstellt, jedoch weitreichende M&auml;ngel aufweist, die dringend adressiert werden m&uuml;ssen. Die genannten Beispiele, von den Skandalen um Datenmissbrauch bis hin zu den potenziell katastrophalen Folgen autonomer Waffensysteme, verdeutlichen, dass die Risiken unregulierter K&uuml;nstlicher Intelligenz nicht nur theoretischer Natur sind.<\/p><p>Es ist unerl&auml;sslich, dass wir als Gesellschaft gemeinsam handeln, um eine Regulierung zu schaffen, die wirklich sch&uuml;tzt und nicht nur den Anschein von Sicherheit vermittelt. Eine klare, umfassende und durchsetzungsf&auml;hige Regelung ist nicht nur im Interesse der EU-B&uuml;rger, sondern auch f&uuml;r den globalen Frieden und die Stabilit&auml;t von entscheidender Bedeutung.<\/p><p>Die Zeit dr&auml;ngt: In einer Welt, in der technologische Entwicklungen rasant voranschreiten, m&uuml;ssen wir sicherstellen, dass ethische Grunds&auml;tze und der Schutz der Menschenrechte nicht auf der Strecke bleiben. Lasst uns gemeinsam f&uuml;r eine Zukunft k&auml;mpfen, in der KI verantwortungsvoll eingesetzt wird zum Wohl der Allgemeinheit und gegen die Interessen von Gro&szlig;konzernen und Lobbyisten. Nur so k&ouml;nnen wir sicherstellen, dass K&uuml;nstliche Intelligenz ein Werkzeug f&uuml;r das Gute bleibt und nicht zu einer Bedrohung f&uuml;r unsere Gesellschaft wird.<\/p><p><small>Titelbild: RaffMaster \/ Shutterstock<\/small><\/p><div class=\"hr_wrap\">\n<hr>\n<\/div><p><strong>Quellen:<\/strong><\/p><ol>\n<li>\n \t\t<strong>Allgemeine Informationen zum AI Act<\/strong>\n<ul>\n<li>Offizielle Website der EU zum Gesetzgebungsverfahren: <a href=\"https:\/\/www.europarl.europa.eu\/\">Europ&auml;isches Parlament &ndash; AI Act<\/a><\/li>\n<li>Beschreibung des AI Acts und allgemeiner &Uuml;berblick: <a href=\"https:\/\/ec.europa.eu\/digital-strategy\/our-policies\/european-approach-artificial-intelligence_en\">European Commission &ndash; Artificial Intelligence Act<\/a><\/li>\n<\/ul>\n<\/li>\n<li>\n \t\t<strong>Risiko-Kategorisierung und L&uuml;cken f&uuml;r &bdquo;Low Risk&ldquo;-Systeme<\/strong>\n<ul>\n<li>Risikoklassifizierung im AI Act und ihre Schw&auml;chen:\n<ul>\n<li>Details zur <strong>Kategorisierung von KI-Risiken<\/strong> und deren Ausnahmen (siehe Artikel 52 und folgende des AI Act).<\/li>\n<li>Artikel oder Analysen zu Schw&auml;chen in &bdquo;Low Risk&ldquo;-Regelungen: <a href=\"https:\/\/edri.org\/\">EDRi (European Digital Rights) &ndash; Kritische Analyse des AI Act<\/a><\/li>\n<li>Fachartikel zum &bdquo;Low Risk&ldquo;-Risiko f&uuml;r die Datenethik (gerade f&uuml;r Social-Media-Plattformen relevant):\n<ul>\n<li><a href=\"https:\/\/algorithmwatch.org\/\">Algorithm Watch &ndash; Zur Transparenz von Low-Risk-Algorithmen<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<li>\n \t\t<strong>Selbstlernende Systeme und Unvorhersehbarkeit von KI-Entwicklungen<\/strong>\n<ul>\n<li>Erl&auml;uterungen zur Regulierung selbstlernender Systeme und den darin enthaltenen Schw&auml;chen:\n<ul>\n<li>Verschiedene Positionen dazu von KI-Forscher*innen und Fachmagazinen: <a href=\"https:\/\/www.aipolicyblog.org\/\">AI Policy Blog<\/a><\/li>\n<li>Fachartikel zu den Risiken und Problemen bei lernenden Systemen in regulierten Bereichen: <a href=\"https:\/\/ieeexplore.ieee.org\/\">IEEE &ndash; KI und die Herausforderungen selbstlernender Systeme<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<li>\n \t\t<strong>Extraterritoriale Herausforderungen und internationale L&uuml;cken<\/strong>\n<ul>\n<li>Diskussionen zum Problem der extraterritorialen Anwendungen und den Problemen durch unzureichende globale Standards:\n<ul>\n<li>Umfangreiche Analysen zur globalen Reichweite und den Extraterritorialit&auml;tsproblemen des AI Act: <a href=\"https:\/\/carnegieeurope.eu\/\">Carnegie Europe &ndash; Europe&rsquo;s Global Tech Policy<\/a><\/li>\n<li>Publikationen zu Schlupfl&ouml;chern f&uuml;r multinationale Unternehmen und ihre Datenstr&ouml;me:\n<ul>\n<li><a href=\"https:\/\/dataethics.eu\/\">eu &ndash; Schlupfl&ouml;cher in der EU-Regulierung<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<li>\n \t\t<strong>Transparenzanforderungen und Gesch&auml;ftsgeheimnisse<\/strong>\n<ul>\n<li>Artikel zu Transparenzanforderungen im AI Act und der M&ouml;glichkeit, sich auf &bdquo;Betriebsgeheimnisse&ldquo; zu berufen:\n<ul>\n<li>EDRi (European Digital Rights) sowie Algorithm Watch analysieren diese Schw&auml;chen ausf&uuml;hrlich:\n<ul>\n<li><a href=\"https:\/\/edri.org\/\">EDRi &ndash; Kritische Position zu Transparenz im AI Act<\/a><\/li>\n<li><a href=\"https:\/\/algorithmwatch.org\/\">Algorithm Watch &ndash; Intransparenz durch Gesch&auml;ftsgeheimnisse<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<li><strong>Massen&uuml;berwachung und biometrische Systeme<\/strong>\n<ul>\n<li>Diskussion zur m&ouml;glichen Nutzung biometrischer Systeme und den Problemen, die Ausnahmeregelungen schaffen k&ouml;nnten:\n<ul>\n<li>Fachartikel zur &Uuml;berwachungsproblematik und der Lockerung der biometrischen Regulierung im AI Act: <a href=\"https:\/\/privacyinternational.org\/\">Privacy International &ndash; Gesichtserkennung und Massen&uuml;berwachung<\/a><\/li>\n<li>Kommentare der <strong>Gesellschaft f&uuml;r Freiheitsrechte e.V. (GFF)<\/strong> zu biometrischer &Uuml;berwachung in der EU: <a href=\"https:\/\/freiheitsrechte.org\/\">Gesellschaft f&uuml;r Freiheitsrechte &ndash; Stellungnahme zur biometrischen &Uuml;berwachung<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n","protected":false},"excerpt":{"rendered":"<p>Der EU AI Act zur K&uuml;nstlichen Intelligenz bietet keine umfassende Sicherheit &ndash; vielmehr k&ouml;nnten sich bekannte Gro&szlig;unternehmen einen Anstrich von Transparenz und regulierter K&uuml;nstlicher Intelligenz geben, ohne tats&auml;chlich nach diesen Prinzipien zu handeln. Es braucht aber Regeln, die konsequent und f&uuml;r alle gleicherma&szlig;en gelten. Von<strong> G&uuml;nther Burbach.<\/strong><\/p>\n<p><em>Dieser Beitrag ist auch als Audio-Podcast verf&uuml;gbar.<\/em><\/p>\n","protected":false},"author":11,"featured_media":124045,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"spay_email":"","footnotes":""},"categories":[107,184,22,127,150],"tags":[1762,850,1805,3111,1006,897],"class_list":["post-124044","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-audio-podcast","category-ueberwachung","category-europaische-union","category-lobbyismus-und-politische-korruption","category-verbraucherschutz","tag-biometrische-daten","tag-datenschutz","tag-kuenstliche-intelligenz","tag-plattformoekonomie","tag-regulierung","tag-transparenz"],"jetpack_featured_media_url":"https:\/\/www.nachdenkseiten.de\/wp-content\/uploads\/2024\/10\/shutterstock_2418887827.jpg","_links":{"self":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/124044","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=124044"}],"version-history":[{"count":6,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/124044\/revisions"}],"predecessor-version":[{"id":124132,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/posts\/124044\/revisions\/124132"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=\/wp\/v2\/media\/124045"}],"wp:attachment":[{"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=124044"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=124044"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.nachdenkseiten.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=124044"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}