KI ist weit verbreitet, der Gesetzgeber hat jedoch nur wenige Regeln festgelegt
HeimHeim > Blog > KI ist weit verbreitet, der Gesetzgeber hat jedoch nur wenige Regeln festgelegt

KI ist weit verbreitet, der Gesetzgeber hat jedoch nur wenige Regeln festgelegt

Dec 28, 2023

Der Begrüßungsbildschirm für die OpenAI-App „ChatGPT“ wird in einer Fotoillustration auf einem Laptop-Bildschirm angezeigt. Immer mehr Staaten erwägen Vorschriften für künstliche Intelligenz und andere automatisierte Systeme. Leon Neal/Getty Images.

Im Herbst 2016 begann das Connecticut Department of Children and Families mit der Verwendung eines prädiktiven Analysetools, das dabei helfen sollte, Kinder in unmittelbarer Gefahr zu identifizieren.

Das Tool verwendete mehr als zwei Dutzend Datenpunkte, um offene Fälle im System von Connecticut mit früheren Sozialhilfefällen mit schlechten Ergebnissen zu vergleichen. Anschließend erhielt jedes Kind einen prädiktiven Score, der einige Fälle für ein schnelleres Eingreifen markierte.

Doch selbst als immer mehr Staaten damit begannen, das Tool einzuführen, stellten einige Behörden fest, dass es offenbar dringende Fälle übersah und weniger schwerwiegende Fälle fälschlicherweise kennzeichnete. Eine in der Fachzeitschrift „Child Abuse & Neglect“ veröffentlichte Studie kam später zu dem Ergebnis, dass es die Ergebnisse bei Kindern nicht verbesserte. Connecticut und mehrere andere Bundesstaaten haben das von einem Privatunternehmen in Florida entwickelte Tool aufgegeben. Im Jahr 2021 – fünf Jahre nachdem das Ministerium für Kinder und Familien in Connecticut das Tool zum ersten Mal eingesetzt hatte und zwei Jahre nachdem der Staat es verworfen hatte – forderten Forscher der Yale University Informationen über die Funktionsweise des Tools an und kamen zu dem Schluss, dass die Behörde es nie verstanden hatte.

„Dies ist ein riesiges, riesiges Problem der öffentlichen Rechenschaftspflicht“, sagte Kelsey Eberly, klinische Dozentin an der Yale Law School. „Behörden bekommen diese Tools, sie nutzen sie, sie vertrauen ihnen – aber sie verstehen sie nicht unbedingt. Und die Öffentlichkeit versteht diese Tools ganz sicher nicht, weil sie nichts von ihnen weiß.“

Connecticut ist der jüngste Bundesstaat, der explizite Vorschriften für künstliche Intelligenz und andere automatisierte Systeme erlassen hat, was zum Teil auf das Erbe des Tools zur Überprüfung gefährdeter Kinder zurückzuführen ist. Ein am 30. Mai verabschiedeter parteiübergreifender Gesetzentwurf, den der demokratische Gouverneur Ned Lamont voraussichtlich in Kraft setzen wird, sieht vor, dass staatliche Behörden alle Regierungssysteme, die künstliche Intelligenz nutzen, inventarisieren und bewerten und eine ständige Arbeitsgruppe einrichten, die weitere Regeln empfiehlt.

Viele Staaten regeln Aspekte dieser Technologien bereits durch Antidiskriminierungs-, Verbraucherschutz- und Datenschutzgesetze. Aber seit 2018 haben mindestens 13 Bundesstaaten Kommissionen zur gezielten Untersuchung von KI eingerichtet – und seit 2019 haben mindestens sieben Bundesstaaten Gesetze verabschiedet, die darauf abzielen, Voreingenommenheit abzumildern, die Transparenz zu erhöhen oder den Einsatz automatisierter Systeme sowohl in Regierungsbehörden als auch im privaten Sektor einzuschränken .

Laut der National Conference of State Legislatures prüften allein im Jahr 2023 Gesetzgeber in 27 Bundesstaaten sowie in Washington, D.C. und Puerto Rico mehr als 80 Gesetzesentwürfe im Zusammenhang mit KI.

Werkzeuge der künstlichen Intelligenz – im weitesten Sinne definiert als Technologien, die komplexe Analyse- und Problemlösungsaufgaben durchführen können, die einst Menschen vorbehalten waren – bestimmen heute häufig, was Amerikaner in sozialen Medien sehen, welche Studenten aufs College kommen und ob Bewerber bei Vorstellungsgesprächen punkten.

Laut dem IBM Global AI Adoption Index nutzten mehr als ein Viertel aller amerikanischen Unternehmen im Jahr 2022 KI in irgendeiner Form. Ein eindrucksvolles Beispiel für die zunehmende Allgegenwärtigkeit von KI ist ein kürzlich in Kalifornien vorgelegter Gesetzentwurf zur Regulierung der Technologie, der von so unterschiedlichen Organisationen wie einem Handelsverband der Lebensmittelindustrie und einer staatlichen Krankenpflegergewerkschaft kommentiert wurde.

Doch die Bundesgesetzgebung ist ins Stocken geraten, sodass die Regulierung den lokalen Regierungen überlassen wurde und ein Flickenteppich aus Landes- und Kommunalgesetzen entstanden ist.

„Die Vereinigten Staaten sind seit vielen Jahren sehr liberal bei der Technologieregulierung“, sagte Darrell M. West, Senior Fellow am Center for Technology Innovation der Denkfabrik Brookings Institution und Autor eines Buches über künstliche Intelligenz. „Aber da wir die Fallstricke einer fehlenden Regulierung sehen – Spam, Phishing, Massenüberwachung –, haben sich das öffentliche Klima und das politische Umfeld verändert. Die Menschen wollen, dass dies reguliert wird.“

Das Interesse der Gesetzgeber an der Regulierung von Technologie ist während dieser Legislaturperiode stark gestiegen und wird im nächsten Jahr dank der weit verbreiteten Einführung von ChatGPT und anderen verbraucherorientierten KI-Tools wahrscheinlich weiter zunehmen, sagte Jake Morabito, Direktor der Task Force für Kommunikation und Technologie bei der konservative American Legislative Exchange Council (ALEC), der weniger Regulierung befürwortet.

Künstliche Intelligenz, einst ein Science-Fiction-Stoff, taucht heute in praktisch jedem Winkel des amerikanischen Lebens auf. Experten und politische Entscheidungsträger haben den Begriff oft weit gefasst und umfassen Systeme, die menschliche Entscheidungsfindung, Problemlösung oder Kreativität durch die Analyse großer Datenbestände nachahmen.

KI treibt bereits eine Reihe von Sprach- und Bilderkennungstools, Suchmaschinen, Spamfiltern, digitalen Karten- und Navigationsprogrammen, Online-Werbung und Content-Empfehlungssystemen an. Kommunalverwaltungen haben künstliche Intelligenz eingesetzt, um zu ersetzende Bleiwasserleitungen zu identifizieren und die Notfallreaktion zu beschleunigen. Ein 2018 eingesetzter Algorithmus für maschinelles Lernen reduzierte die Zahl der Sepsis-Todesfälle in fünf Krankenhäusern in Washington, D.C. und Maryland.

Doch auch wenn einige KI-Anwendungen neue und unerwartete soziale Vorteile bringen, haben Experten unzählige automatisierte Systeme mit voreingenommenen, diskriminierenden oder ungenauen Ergebnissen dokumentiert. Es wurde beispielsweise immer wieder festgestellt, dass Gesichtserkennungsdienste, die von Strafverfolgungsbehörden eingesetzt werden, farbige Menschen häufiger fälschlicherweise identifizieren als weiße Menschen. Amazon hat ein KI-Rekrutierungstool abgeschafft, nachdem festgestellt wurde, dass das System weibliche Arbeitssuchende durchweg bestraft.

Kritiker beschreiben KI-Voreingenommenheit und -Fehler manchmal als ein „Müll rein, Müll raus“-Problem, sagte Mark Hughes, der Geschäftsführer der in Vermont ansässigen Organisation für Rassengerechtigkeit Justice for All. Bei mehreren Auftritten vor einem Senatsausschuss des Bundesstaates im vergangenen Jahr sagte Hughes aus, dass der Gesetzgeber eingreifen müsse, um zu verhindern, dass automatisierte Systeme die Voreingenommenheit und den systemischen Rassismus aufrechterhalten, die in ihren Trainingsdaten häufig inhärent auftreten.

„Wir wissen, dass Technologie, insbesondere KI, immer das replizieren wird, was bereits existiert“, sagte Hughes gegenüber Stateline. „Und es wird es für den Massenvertrieb reproduzieren.“

In jüngerer Zeit hat das Aufkommen von ChatGPT und anderen generativen KI-Tools – die als Reaktion auf Benutzeraufforderungen menschenähnliche Schriften, realistische Bilder und andere Inhalte erstellen können – neue Bedenken bei Industrie- und Regierungsbeamten hervorgerufen. Solche Instrumente könnten, so befürchten politische Entscheidungsträger, Arbeitnehmer verdrängen, die Privatsphäre der Verbraucher untergraben und zur Erstellung von Inhalten beitragen, die das Urheberrecht verletzen, Desinformation verbreiten und Hassreden oder Belästigung verstärken. In einer aktuellen Reuters/Ipsos-Umfrage gaben mehr als zwei Drittel der Amerikaner an, sie seien besorgt über die negativen Auswirkungen der KI – und drei von fünf sagten, sie befürchteten, dass sie die Zivilisation bedrohen könnte.

„Ich denke, dass KI ein enormes Potenzial hat, unsere Arbeitsweise zu revolutionieren und uns effizienter zu machen – aber es gibt auch potenzielle Gefahren“, sagte Senator James Maroney aus dem Bundesstaat Connecticut, ein Demokrat und Verfechter des KI-Gesetzes dieses Bundesstaates. „Wir müssen nur vorsichtig sein, wenn wir vorankommen.“

Die neuen KI-Vorschriften von Connecticut bieten ein frühes, umfassendes Modell für den Umgang mit automatisierten Systemen, sagte Maroney, der hofft, dass die Vorschriften in künftigen Legislaturperioden von der Landesregierung auf den Privatsektor ausgeweitet werden.

Durch das Gesetz wird in der staatlichen Exekutive ein neues Büro für künstliche Intelligenz geschaffen, dessen Aufgabe darin besteht, neue Standards und Richtlinien für staatliche KI-Systeme zu entwickeln. Bis Ende des Jahres muss das Amt außerdem eine Bestandsaufnahme der automatisierten Systeme erstellen, mit denen staatliche Behörden „kritische Entscheidungen“ treffen, beispielsweise in Bezug auf Wohnraum oder Gesundheitsfürsorge, und dokumentieren, dass sie bestimmte Anforderungen an Transparenz und Nichtdiskriminierung erfüllen.

Das Gesetz basiert auf Empfehlungen von Wissenschaftlern aus Yale und anderen Universitäten, sagte Maroney, sowie auf einem ähnlichen Gesetz aus dem Jahr 2021 in Vermont. Das Modell wird wahrscheinlich auch in anderen Bundesstaaten auftauchen: Gesetzgeber aus Colorado, Minnesota und Montana arbeiten derzeit mit Connecticut zusammen, um parallele KI-Richtlinien zu entwickeln, sagte Maroney, und mehrere Bundesstaaten – darunter Maryland, Massachusetts, Rhode Island und Washington – haben ähnliche Maßnahmen eingeführt.

In Vermont hat das Gesetz bereits eine neue beratende Task Force und eine staatliche Abteilung für künstliche Intelligenz hervorgebracht. In seiner ersten jährlichen Bestandsaufnahme stellte Josiah Raiche, der die Abteilung leitet, „rund ein Dutzend“ automatisierte Systeme fest, die in der Landesregierung im Einsatz sind. Dazu gehörten ein Computer-Vision-Projekt im Verkehrsministerium, das KI zur Bewertung von Schlaglöchern nutzt, und eine gängige Antivirensoftware, die Malware im staatlichen Computersystem erkennt. Keines der Tools stelle ein Diskriminierungsrisiko dar, sagte Raiche.

Aber neue Technologien könnten mehr Wachsamkeit erfordern, auch wenn sie die staatlichen Dienstleistungen verbessern, fügte er hinzu. Raiche hat vor kurzem damit begonnen, mit Möglichkeiten zu experimentieren, wie staatliche Behörden generative KI-Tools wie ChatGPT nutzen könnten, um Wählern beim Ausfüllen komplexer Unterlagen in verschiedenen Sprachen zu helfen. In einem vorläufigen, internen Versuch stellte Raiche jedoch fest, dass ChatGPT qualitativ hochwertigere Antworten auf Beispielfragen auf Deutsch generierte als auf Somali.

„Es gibt noch viel zu tun, um sicherzustellen, dass die Gerechtigkeit gewahrt bleibt“, sagte er. Aber wenn es richtig gemacht wird, könnten automatisierte Systeme „den Menschen wirklich dabei helfen, ihre Interaktionen mit der Regierung zu steuern“.

Wie Connecticut plant auch Vermont, seine KI-Aufsicht in Zukunft auf den privaten Sektor auszudehnen. Raiche sagte, der Staat werde dies wahrscheinlich durch ein Verbraucherdatenschutzgesetz erreichen, das die Datensätze regeln kann, die KI-Systemen zugrunde liegen, und somit als eine Art Hintertür für eine umfassendere Regulierung dienen kann. Kalifornien, Connecticut, Colorado, Utah und Virginia haben ebenfalls umfassende Datenschutzgesetze erlassen, während eine Handvoll Gerichtsbarkeiten engere Vorschriften erlassen haben, die auf sensible oder risikoreiche Nutzungen künstlicher Intelligenz abzielen.

Bis Anfang Juli müssen beispielsweise New Yorker Arbeitgeber, die KI-Systeme im Rahmen ihres Einstellungsprozesses nutzen, diese Tools auf Voreingenommenheit prüfen und die Ergebnisse veröffentlichen. Colorado verlangt unterdessen, dass Versicherungsunternehmen den Einsatz automatisierter Systeme dokumentieren und nachweisen, dass diese nicht zu ungerechtfertigter Diskriminierung führen.

Der aufkommende Flickenteppich staatlicher und lokaler Gesetze hat Technologieunternehmen verärgert, die begonnen haben, eine bundesstaatliche Regulierung von KI und automatisierten Systemen zu fordern. Die meisten Technologieunternehmen können ihre Systeme nicht an verschiedene Städte und Bundesstaaten anpassen, sagte West von der Brookings Institution, was bedeutet, dass viele – ohne Bundesgesetzgebung – stattdessen die strengsten lokalen Vorschriften in ihrem gesamten geografischen Umfeld übernehmen müssen.

Das ist eine Situation, die viele Unternehmen vermeiden wollen. Im April versammelten sich Vertreter verschiedenster Unternehmens- und Technologiegruppen, um sich gegen ein kalifornisches KI-Gesetz zu stellen, das private Unternehmen verpflichtet hätte, KI-Tools auf Voreingenommenheit zu überwachen und die Ergebnisse zu melden – andernfalls drohten hohe Geldstrafen und Verbraucherklagen. Der Gesetzentwurf überstand im April zwei Ausschussabstimmungen, bevor er im Bewilligungsausschuss der Versammlung scheiterte.

„Regierungen sollten mit der Industrie zusammenarbeiten und nicht mit diesem kontradiktorischen Ansatz vorgehen“, sagte Morabito von ALEC. „Lassen Sie zu, dass der Markt hier die Führung übernimmt … viele Akteure im Privatsektor wollen das Richtige tun und ein vertrauenswürdiges KI-Ökosystem aufbauen.“

ALEC hat einen alternativen, bundesstaatlichen Ansatz zur KI-Regulierung vorgeschlagen. Das als „Regulatory Sandbox“ bezeichnete Programm ermöglicht es Unternehmen, in Zusammenarbeit mit den Generalstaatsanwaltschaften der Bundesstaaten neue Technologien auszuprobieren, die andernfalls im Widerspruch zu den Gesetzen der Bundesstaaten stehen könnten. Solche Sandkästen förderten Innovationen, sagte Morabito, während sie gleichzeitig die Verbraucher schützten und die politischen Entscheidungsträger vor der Ausarbeitung von Gesetzen über die Bedürfnisse der Industrie aufklärten. Arizona und Utah sowie die Stadt Detroit haben kürzlich regulatorische Sandboxen geschaffen, in denen Unternehmen KI-Experimente durchführen können.

Diese Programme haben die Gesetzgeber in diesen Staaten jedoch nicht davon abgehalten, auch KI-Vorschriften zu verfolgen. Im Jahr 2022 zielte ein von den Republikanern unterstützter Gesetzentwurf darauf ab, KI daran zu hindern, die „verfassungsmäßigen Rechte“ der Arizonaner zu verletzen, und der Gesetzgeber von Utah berief kürzlich eine Arbeitsgruppe ein, um eine mögliche KI-Gesetzgebung zu prüfen.

Politische Entscheidungsträger betrachten KI nicht länger als vages oder zukünftiges Problem, sagte Eberly von Yale – und sie warten nicht darauf, dass die Bundesregierung handelt.

„KI ist da, ob wir es wollen oder nicht“, fügte sie hinzu. „Es ist jetzt Teil unseres Lebens … und der Gesetzgeber versucht nur, ihm einen Schritt voraus zu sein.“

ERHALTEN SIE DIE MORGENSCHLAGZEILEN IN IHREN EINGANG

Unterstützen Sie Nachrichten, denen Sie vertrauen.

von Caitlin Dewey, Ohio Capital Journal 6. Juni 2023

Unsere Geschichten können online oder in gedruckter Form unter der Creative-Commons-Lizenz CC BY-NC-ND 4.0 erneut veröffentlicht werden. Wir bitten Sie, die Inhalte nur aus Stil- oder Kürzungsgründen zu bearbeiten, eine korrekte Quellenangabe anzugeben und auf unsere Website zu verlinken. Bitte beachten Sie unsere Richtlinien für die Wiederveröffentlichung von Fotos und Grafiken.

Caitlin Dewey ist Korrespondentin für Stateline in Buffalo, New York und hat für Medien wie The Washington Post, The New York Times, The Guardian, Slate, Elle und Cosmopolitan berichtet.