Nein, der KI-Himmel fällt nicht

Apr 20 2023
Als ob der KI-Alarmismus der Realität nicht schon weit vorauseilen würde, hat eine Gruppe von KI-Forschern und Tech-Persönlichkeiten, darunter Elon Musk, Steve Wozniak und der Deep-Learning-Pionier Yoshua Bengio, jetzt einen offenen Brief geschrieben, um die Flammen anzufachen. Der Brief fordert ein sechsmonatiges Moratorium für das Training leistungsfähiger KI-Systeme wegen der angeblich drohenden Gefahr.

Als ob der KI-Alarmismus der Realität nicht schon weit vorauseilen würde, hat eine Gruppe von KI-Forschern und Tech-Persönlichkeiten, darunter Elon Musk, Steve Wozniak und der Deep-Learning-Pionier Yoshua Bengio, jetzt einen offenen Brief geschrieben, um die Flammen anzufachen . Der Brief fordert ein sechsmonatiges Moratorium für das Training leistungsfähiger KI-Systeme wegen der angeblich drohenden Gefahr. MIT-Professor Max Tegmark, einer der Organisatoren des Briefes, sagt, dass der anhaltende Wettbewerb zur Verbesserung der KI „eher ein Selbstmordrennen“ sei. Das einzige Problem ist, dass die angeblichen Risiken unrealistisch, der angenommene Stand der Technik in der KI lächerlich daneben und die vorgeschlagenen Maßnahmen ziemlich schädlich sind.

Beruhigen wir uns für einen Moment und schauen wir uns an, was KI wirklich ist, wohin sie sich entwickeln könnte und was (wenn überhaupt) dagegen zu tun ist.

Die geringste Befürchtung der Briefschreiber ist, dass KI „unsere Informationskanäle mit Propaganda und Unwahrheit überschwemmt“. Aber sie sind dank unserer Mitmenschen bereits mit ihnen überflutet, und die Verlangsamung der KI-Entwicklung wird in erster Linie unsere Fähigkeit beeinträchtigen, Fehlinformationen automatisch zu erkennen und zu stoppen, was die einzige skalierbare Option ist. Die Angst vor KI-generierten Unwahrheiten lässt auch die schädliche Annahme aufkommen, dass Menschen dumm sind und naiv KI-produzierte Unwahrheiten für bare Münze nehmen werden. Aber jeder, der mit ChatGPT gespielt hat, weiß es bereits besser, und dies wird sich schnell verbessern, wenn die Leute mehr Erfahrung im Umgang mit KI sammeln.

Die Briefschreiber befürchten auch, dass KI „alle Jobs wegautomatisiert“, als ob dies in absehbarer Zeit auch nur annähernd realistisch wäre. Sie ignoriert auch die Erfahrungen der letzten 200 Jahre, in denen die Automatisierung systematisch mehr Arbeitsplätze geschaffen als vernichtet hat. In den meisten Berufen wird die KI einige Aufgaben automatisieren, andere jedoch nicht, wodurch die Mitarbeiter produktiver und die Arbeit weniger routinemäßig werden. Die Senkung der Kosten für das, was KI leisten kann, wird die Nachfrage nach ihren Ergänzungen erhöhen und mehr Geld in den Taschen der Verbraucher hinterlassen, das sie dann für andere Dinge ausgeben können. KI wird viele völlig neue Berufe schaffen, wie es frühere Automatisierungswellen getan haben (z. B. App-Entwickler). All dies erhöht die Nachfrage nach Arbeitskräften, anstatt sie zu senken. Die KI-Revolution ist bereits in vollem Gange, aber die Arbeitslosenquote ist die niedrigste seit Menschengedenken. Wir brauchen mehr KI, nicht weniger,

Die Jobs AIpocalypse ist jedoch nur der Anfang. „Sollten wir nichtmenschliche Köpfe entwickeln, die uns schließlich zahlenmäßig übertreffen, überlisten, überflüssig machen und uns ersetzen könnten?“ fragt der Brief. „Sollten wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“ Dies fällt in den grundlegenden Irrtum, KI mit menschlicher Intelligenz zu verwechseln. (Ausgerechnet KI-Forscher sollten es besser wissen.) KIs haben weder den Wunsch noch die Fähigkeit, die Kontrolle über unsere Zivilisation zu übernehmen. Sie sind nur sehr komplexe Optimierungssysteme, die nur versuchen können, die Ziele zu erreichen, die wir ihnen im Computercode gesetzt haben. Das Erreichen dieser Ziele erfordert normalerweise eine exponentielle Rechenleistung, aber die Überprüfung der Ergebnisse ist einfach. (Krebs zu heilen ist schwer. Zu überprüfen, ob eine Behandlung funktioniert hat, ist es nicht.) Die meisten KI-Systeme sehen überhaupt nicht wie Menschen aus und haben keine Wünsche, Emotionen, Bewusstsein oder Willen. Sie tun nur nützliche Dinge, und je besser sie es tun, desto besser. Warum ihre Entwicklung behindern? Der beste Weg, sie sicherer zu machen, ist, sie intelligenter zu machen.

Aber die Lösung der KI-Alarmisten für all diese hypothetischen Probleme ist – Sie haben es erraten – eine umfassende neue Regulierung. Nicht nur von KI, sondern auch von „großen Pools an Rechenleistung“ (vermutlich die gesamte Cloud). Regierungen sollten in KI eingreifen und ihre Entwicklung lenken. Warum all dies mehr nützt als schadet, wird von meinen weisen Kollegen völlig außer Acht gelassen. Sie erwähnen frühere Moratorien zur Unterstützung ihrer, die alle in Biologie und Medizin waren, wo es um ganz andere Dinge geht. Sie beziehen sich auf eine „weithin anerkannte“ Reihe von KI-Prinzipien, von denen die meisten Unterzeichner tatsächlich KI-Forscher sind. Sie untermauern ihre Behauptung, dass die „tiefgreifenden Risiken“ der KI „durch umfangreiche Forschung aufgezeigt“ wurden, mit einer kurzen Liste kontroverser Bücher und ideologisch motivierter Artikel und nicht mit ernsthaften wissenschaftlichen Studien.

„Leistungsstarke KI-Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Wirkung positiv und ihre Risiken überschaubar sind“, heißt es in dem Schreiben. Gut, dass wir das nicht mit Feuer, Rad, Druckerpresse, Dampfmaschinen, Elektrizität, Autos, Computern und zahllosen anderen Technologien gemacht haben, denn sonst würden wir immer noch in Höhlen leben. KI-Führer wie Yann LeCun und Andrew Ng haben sich öffentlich gegen die Idee eines KI-Moratoriums ausgesprochen, und ich möchte mich ihrer Stimme anschließen. Bevor uns gesagt wird, dass „die Wissenschaft sagt, dass KI reguliert werden muss“, sollte die Öffentlichkeit zumindest wissen, dass diese Debatte zwei Seiten hat. Und bevor wir angesichts der hypothetischen Gefahren der KI in Panik geraten, sollten wir vielleicht den Schaden bedenken, den eine solche Panik anrichten würde.