Doom vs. Boom: Der Kampf um die Verankerung der Zukunft der KI im kalifornischen Recht
Ein kalifornischer Gesetzentwurf zur Regulierung großer bahnbrechender KI-Modelle führt zu einer dramatischen Pattsituation über die Zukunft der KI. Jahrelang wurde KI in die beiden Konzepte „Accel“ und „Decel“ unterteilt . Die „Accel“-Bewegung will einen schnellen Fortschritt der KI – also schnelles Handeln und die Zerstörung von Dingen –, während die „Decel“-Bewegung eine Verlangsamung der KI-Entwicklung zum Wohle der Menschheit fordert. Der Kampf rückte ins nationale Rampenlicht, als der Vorstand von OpenAI Sam Altman kurzzeitig aus dem Amt drängte ; viele von ihnen haben sich seitdem im Namen der KI-Sicherheit von dem Startup abgespalten . Nun macht ein kalifornischer Gesetzentwurf diesen Kampf zu einem politischen Kampf.
Vorgeschlagene Literatur
Vorgeschlagene Literatur
- Aus
- Englisch
Was ist SB 1047?
SB 1047 ist ein Gesetzentwurf des Staates Kalifornien, der große Anbieter von KI-Modellen – wie Meta, OpenAI, Anthropic und Mistral – für die potenziell katastrophalen Gefahren ihrer KI-Systeme haftbar machen würde. Der von Senator Scott Wiener verfasste Gesetzentwurf wurde im Mai vom Senat Kaliforniens verabschiedet und nahm diese Woche eine weitere große Hürde auf dem Weg zum Inkrafttreten.
Verwandter Inhalt
Verwandter Inhalt
Warum sollte es mich kümmern?
Es könnte sich um die erste wirkliche KI-Regulierung in den USA mit Biss handeln, und sie findet bereits in Kalifornien statt, wo alle großen KI-Unternehmen angesiedelt sind.
Wiener beschreibt den Gesetzentwurf als „klare, vorhersehbare und vernünftige Sicherheitsstandards für Entwickler der größten und leistungsstärksten KI-Systeme“. Allerdings sieht das nicht jeder so. Viele im Silicon Valley schlagen Alarm, dass dieses Gesetz das KI-Zeitalter beenden wird, bevor es überhaupt begonnen hat.
Was bewirkt SB 1047 eigentlich?
SB 1047 macht Anbieter von KI-Modellen für „katastrophale Schäden“ haftbar, obwohl nicht ganz klar ist, um welche Schäden es sich dabei handelt. Dennoch ist das von großer Bedeutung, da Silicon Valley in der Vergangenheit die Verantwortung für seine Schäden größtenteils vermieden hat. Der Gesetzentwurf ermächtigt den Generalstaatsanwalt von Kalifornien, rechtliche Schritte gegen diese Unternehmen einzuleiten, wenn eines ihrer KI-Modelle den Kaliforniern schweren Schaden zufügt.
SB 1047 enthält außerdem eine „Shutdown“-Bestimmung, die KI-Unternehmen effektiv dazu verpflichtet, für den Notfall einen Kill Switch für ein KI-Modell zu schaffen.
Der Gesetzentwurf schafft auch die „Frontier Model Division“ innerhalb des kalifornischen Technologieministeriums. Diese Gruppe würde diese Anbieter von KI-Modellen regulieren und Sicherheitsstandards durchsetzen, die jedes Unternehmen einhalten muss. Unternehmen, die sich nicht an die Vorgaben der Division halten, könnten verklagt werden und mit zivilrechtlichen Strafen rechnen.
Wer unterstützt diesen Gesetzentwurf?
Neben Senator Wiener haben zwei prominente KI-Forscher, die manchmal als „Paten der KI“ bezeichnet werden, Geoffrey Hinton und Yoshua Bengio, diesen Gesetzesentwurf unterzeichnet. Diese beiden haben sich durch ihre Warnungen vor den Gefahren der KI hervorgetan.
Im weiteren Sinne steht dieser Gesetzesentwurf im Einklang mit der Decel-Perspektive, die glaubt, dass KI mit relativ hoher Wahrscheinlichkeit die Menschheit auslöschen wird und dementsprechend reguliert werden sollte. Die meisten dieser Leute sind KI-Forscher und versuchen nicht aktiv, ein KI-Produkt zu kommerzialisieren, weil sie, wissen Sie, glauben, dass es die Menschheit auslöschen könnte.
Der Gesetzentwurf wird vom Center for AI Safety unterstützt, das von Dan Hendrycks geleitet wird. Seine Gruppe veröffentlichte im Mai 2023 einen offenen Brief, in dem sie erklärte, dass das Risiko der KI für das Aussterben der Menschheit ebenso ernst genommen werden sollte wie Atomkriege oder Pandemien. Der Brief wurde von Sam Altman, Bill Gates, Grimes und zahlreichen einflussreichen Tech-Leuten unterzeichnet. Sie sind eine einflussreiche Gruppe und ein wichtiger Akteur bei der Förderung dieses Gesetzentwurfs.
Im März 2023 forderten Decels eine „Pause“ bei der Entwicklung aller KI-Technologien, um eine Sicherheitsinfrastruktur zu implementieren. Auch wenn es extrem klingt, gibt es in der KI-Community viele kluge Leute, die wirklich glauben, dass KI die Menschheit auslöschen könnte. Ihre Idee ist, dass wir KI, wenn auch nur die geringste Wahrscheinlichkeit besteht, dass sie die Menschheit auslöscht, wahrscheinlich streng regulieren sollten, nur für den Fall.
Das macht Sinn. Wer ist also gegen SB 1047?
Wenn Sie auf X stehen, haben Sie das Gefühl, dass jeder im Silicon Valley gegen SB 1047 ist. Risikokapitalgeber, Startup-Gründer, KI-Forscher und Führungskräfte der Open-Source-KI-Community hassen diesen Gesetzesentwurf. Ich würde diese Leute im Allgemeinen als Accels einstufen, oder zumindest ist das ihre Meinung zu diesem Thema. Viele von ihnen sind im KI-Geschäft tätig, aber einige sind auch Forscher.
Die allgemeine Meinung ist, dass SB 1047 Anbieter von KI-Modellen wie Meta und Mistral dazu zwingen könnte, ihre Open-Source-Bemühungen zurückzufahren oder ganz einzustellen. Dieses Gesetz macht sie für böswillige Akteure verantwortlich, die ihre KI-Modelle verwenden, und diese Unternehmen werden diese Verantwortung möglicherweise nicht übernehmen, da es schwierig ist, generative KI einzuschränken, und die Produkte offen sind.
„Es wird das Open-Source-Startup-Ökosystem komplett zerstören, zerstören und verlangsamen“, sagte Anjney Midha, A16Z-Generalpartner und Mistral-Vorstandsmitglied, in einem Interview mit Gizmodo. „Dieser Gesetzesentwurf ist so, als würde man versuchen, den Fortschritt der Druckerpresse einzudämmen, anstatt sich auf das zu konzentrieren, was er sollte, nämlich auf die Verwendungsmöglichkeiten der Druckerpresse.“
„Open Source ist unsere beste Hoffnung, die Nase vorn zu behalten, indem wir transparente Sicherheitstests für neu entstehende Modelle zusammenführen, anstatt ein paar mächtigen Unternehmen im Geheimen die Kontrolle über die KI zu überlassen“, sagte Ion Stoica, Professor für Informatik in Berkeley und geschäftsführender Vorsitzender von Databricks, in einem Interview.
Midha und Stoica sind nicht die einzigen, die die Regulierung der KI als existenziell für die Branche ansehen. Open-Source-KI hat die florierendste Startup-Szene im Silicon Valley seit Jahren angetrieben. Gegner von SB 1047 sagen, dass das Gesetz den abgeschotteten etablierten Big Tech-Unternehmen zugutekommen wird, anstatt diesem florierenden, offenen Ökosystem.`
„Ich sehe das wirklich als eine Möglichkeit, die Open-Source-KI-Entwicklung zu behindern, als Teil einer umfassenderen Strategie zur Verlangsamung der KI“, sagte Jeremy Nixon, Gründer des AGI House, das als Treffpunkt für die Open-Source-KI-Hackathons im Silicon Valley dient. „Der Gesetzesentwurf stammt von einer Community, die sehr daran interessiert ist, die KI im Allgemeinen anzuhalten.“
Das klingt wirklich technisch. Können die Gesetzgeber das alles so straff regeln?
Es ist absolut technisch, und das hat einige Probleme geschaffen. SB 1047 gilt nur für „große“ Grenzmodelle, aber wie groß ist groß? Der Gesetzentwurf definiert es als KI-Modelle, die mit 10^26 FLOPS trainiert werden, eine spezifische und nach heutigen Maßstäben sehr große Rechenleistung. Das Problem ist, dass die KI sehr schnell wächst und die hochmodernen Modelle von 2023 im Vergleich zu den Maßstäben von 2024 winzig aussehen. Eine Flagge in den Sand zu stecken, funktioniert nicht gut für ein Feld, das sich so schnell bewegt.
Es ist auch nicht klar, ob es überhaupt möglich ist, Fehlverhalten von KI-Systemen vollständig zu verhindern. Die Wahrheit ist, dass wir nicht viel darüber wissen, wie LLMs funktionieren, und die derzeit führenden KI-Modelle von OpenAI, Anthropic und Google werden ständig gejailbreakt. Deshalb sagen einige Forscher, dass sich die Regulierungsbehörden auf die Übeltäter konzentrieren sollten, nicht auf die Modellanbieter.
„Bei KI muss man den Anwendungsfall, die Aktion, regeln und nicht die Modelle selbst“, sagte Ravid Shwartz Ziv, ein Assistenzprofessor, der zusammen mit Yann Lecunn KI an der NYU studiert, in einem Interview. „Die besten Forscher der Welt können unendlich viel Zeit an einem KI-Modell verbringen und die Leute sind immer noch in der Lage, es zu jailbreaken.“
Ein weiterer technischer Aspekt dieses Gesetzesentwurfs betrifft Open-Source-KI-Modelle. Wenn ein Startup Metas Llama 3, eines der beliebtesten Open-Source-KI-Modelle, nimmt und es so verfeinert, dass es etwas völlig anderes wird, ist Meta dann immer noch für dieses KI-Modell verantwortlich? Nach diesem Gesetzentwurf könnte Meta durchaus zur Verantwortung gezogen werden, aber die Gegner des Gesetzesentwurfs halten dies für unfair und nicht für den richtigen Ansatz.
Kurze Frage: Ist KI tatsächlich freie Meinungsäußerung?
Unklar. Viele in der KI-Community sehen in Open-Source-KI eine Art freie Meinungsäußerung (deshalb bezeichnete Midha sie als Druckerpresse). Die Prämisse ist, dass der Code, der einem KI-Modell zugrunde liegt, eine Ausdrucksform ist und die Modellausgaben ebenfalls Ausdrücke sind. Code fiel historisch in mehreren Fällen unter den Ersten Verfassungszusatz.
Drei Rechtsprofessoren argumentierten in einem Lawfare-Artikel , dass KI-Modelle nicht gerade freie Meinungsäußerung seien. Zum einen sagen sie, dass die Gewichte, aus denen ein KI-Modell besteht, nicht von Menschen geschrieben, sondern durch umfangreiche maschinelle Lernvorgänge erstellt werden. Menschen können sie kaum lesen.
Was die Ergebnisse bahnbrechender KI-Modelle angeht, unterscheiden sich diese Systeme ein wenig von den Algorithmen sozialer Medien, die in der Vergangenheit als unter den Ersten Verfassungszusatz fallend betrachtet wurden. KI-Modelle vertreten nicht unbedingt einen Standpunkt, sie sagen viele Dinge. Aus diesem Grund sagen diese Rechtsprofessoren, dass SB 1047 möglicherweise nicht gegen den Ersten Verfassungszusatz verstößt.
Was kommt als nächstes?
Der Gesetzentwurf steht kurz vor der Abstimmung im August, die ihn auf den Schreibtisch von Gouverneur Gavin Newsom bringen würde. Bis dahin muss er noch einige wichtige Hürden nehmen, und selbst dann könnte Newsom ihn aufgrund des Drucks aus Silicon Valley nicht unterzeichnen. Eine große Tech-Handelsgruppe hat Newsom gerade einen Brief geschickt, in dem sie ihn auffordert, SB 1047 nicht zu unterzeichnen.
Newsom möchte jedoch möglicherweise einen Präzedenzfall für die Nation in Sachen KI schaffen. Wenn SB 1047 in Kraft tritt, könnte es die KI-Landschaft in Amerika radikal verändern.