Drücken Sie „Enter“, um den Inhalte zu überspringen

Offener Brief zu KI: Opfer des Hypes

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist…
Zahlreiche KI-Expert:innen fordern eine Entwicklungspause für neue KI-Modelle. Es brauche zunächst Sicherheitsstandards – auch um die Menschheit vor dem Schlimmsten zu bewahren. Das ist in mehrfacher Hinsicht „Bullshit“.
Stehen wir kurz vor der KI-Apokalypse? – Diffusion Bee (A man in an apocalyptic scenario surrounded by terminators, colorized, highly detailed)Als hätten wir nicht der Krisen genug, verbreitet derzeit ein offener Brief düstere Endzeitstimmung: „Sollen wir es zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten fluten?“ Sollen all unsere Jobs automatisiert werden? Und sollen wir es hinnehmen, dass „nicht menschliche Intelligenzen“ entstehen, „die uns irgendwann überflüssig machen und ersetzen könnten?“
Die Fragen stellen einige der prominentesten Personen aus der KI-Forschung und dem Silicon Valley, unter ihnen Twitter-Chef Elon Musk und Apple-Mitgründer Steve Wozniak. Mehr als 1800 Menschen haben den Brief inzwischen unterzeichnet. Sie alle sorgen sich um die rasanten Weiterentwicklungen von Sprachmodellen wie GPT-4 und fordern ein sechsmonatiges Entwicklungsmoratorium für Systeme, die noch „mächtiger“ sind als die neue Modellversion aus dem Labor von OpenAI.
Setze sich die aktuelle Entwicklung ungebremst fort, so der Brief, bedrohe dies die gesamte Menschheit. Die KI-Systeme seien auf dem besten Weg, ein ähnliches Intelligenzniveau wie wir zu entwickeln und damit „einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde“ einzuleiten. Die Entscheidung darüber dürften wir nicht den Tech-Konzernen überlassen, lautet die Mahnung.
Seit ChatGPT von OpenAI im November vergangenen Jahres veröffentlicht wurde, liefern sich vor allem Microsoft und Google ein Rennen um die Vorherrschaft in diesem Bereich – mit der Aussicht auf gewaltiges Wachstum und weitere Einnahmequellen. Fast wöchentlich werden neue Anwendungen vorgestellt.
Illustre Runde der Unterzeichnenden
Dass KI-Systeme Risiken bergen, ist bekannt – auch in Europa. Darauf verweisen unter anderem Europol mit Blick auf die Kriminalität oder der TÜV mit Verweis auf den Einsatz von KI-Systemen in der Medizin. Und auch die EU ringt derzeit darum, mit dem geplanten AI Act die Risiken zu begrenzen. Die KI-Verordnung soll das erste Gesetz weltweit werden, das „Künstliche Intelligenz“ in nahezu allen Lebensbereichen reguliert.
Vor diesem Hintergrund überrascht die existenzielle Dringlichkeit des Briefes um so mehr. Allerdings erklärt sich diese vor allem aus der illustren Runde der Unterzeichnenden. Zu diesen zählen zum einen Wissenschaftler:innen wie der britische KI-Forscher Stuart Russell, aber auch Unternehmer:innen wie Emad Mostaque, der Geschäftsführer von Stability AI, sowie mehrere Mitarbeiter:innen der zu Google gehörenden Forschungseinrichtung DeepMind.
Zum anderen haben auch Yuval Noah Harari und Elon Musk den Brief unterschrieben. Der Übergroßdenker Harari ist geradezu berüchtigt dafür, in seinen millionenfach verkauften Büchern Untergangsszenarien herbeizuphantasieren. Und Elon Musk hat OpenAI, das Unternehmen hinter ChatGPT, im Jahr 2015 mitgegründet. Nachdem er aber im Jahr 2018 scheiterte, die Führung bei OpenAI zu übernehmen, kehrte Musk dem Unternehmen kurz darauf den Rücken. Es ist nicht auszuschließen, dass Musk, der ohnehin zu exzentrischen Aussagen neigt, mit OpenAI hier seine eigene Fehde ausficht.
Kritik von KI-Wissenschaftler:innen
Zumindest einem Teil der Unterzeichner:innen dürfte die schnelle KI-Entwicklung durchaus ernste Sorgen bereiten. Umso mehr stellt sich jedoch die Frage, ob es dazu des schrillen Tons braucht, mit dem die existenziellen Gefahren heraufbeschworen werden – oder ob das Bedrohungsszenario nicht vielmehr Ergebnis eines sich selbst verstärkenden Hypes sind.
Diese Vermutung bestätigt auch die Kritik, die viele KI-Wissenschaftler:innen an dem offenen Brief äußern. So erkennen etwa die Princeton-Computerwissenschaftler Sayash Kapoor and Arvind Narayanan zwar an, dass „Fehlinformationen, Auswirkungen auf die Arbeit sowie auf die Sicherheit drei der Hauptrisiken von KI sind“. Allerdings kritisieren sie auch, dass der offene Brief vor allem ein spekulatives, futuristisches Risiko zeichnet. Damit lenke er aber von den tatsächlichen Problemen ab und erschwere es zudem, diese konstruktiv anzugehen.
Auch die Linguistin Emily Bender kritisiert den Brief als weiteren Treibstoff für den KI-Hype. Sie weist darauf hin, dass derzeit niemand eine digitale Intelligenz („digital mind“) baue oder etwas Derartiges plane. Bender gehört zu den Mit-Autorinnen eines Forschungspapiers, das ChatGPT und vergleichbare große Sprachmodelle als „stochastischen Papagei“ bezeichnet. Sie würden vor allem auf die Vorhersage von Zeichenketten trainiert, demzufolge wissen die Systeme nicht, worüber sie sprechen. Stattdessen produzieren sie im Sinne des Philosophen Harry Frankfurt „Bullshit“ (zu Deutsch: Blödsinn) – sie lügen zwar nicht bewusst, scheren sich aber auch nicht darum, ob ihre Aussagen wahr sind.
Die Phantasiewelt des Longtermism
Bender weist noch auf einen weiteren Punkt hin: Die gemeinnützige Organisation Future of Life, auf deren Website der Brief erschienen ist, sei dafür bekannt, sich dem sogenannten „Longtermism“ zu verschreiben. Diese im Silicon Valley einflussreiche Denkströmung kreist vor allem um das Überleben der Menschheit und versucht mit technologischen Mitteln gegen alle möglichen Szenarien anzukämpfen, die deren Ende bedeuten könnten.
Eine außer Kontrolle geratene Superintelligenz gilt ihren Anhänger:innen dabei als eines der wahrscheinlichen Bedrohungsszenarien. Viele Tech-Bosse wie Musk oder auch Skype-Gründer Jaan Tallinn zählen zur Folgschaft – und fördern die Bewegung und deren Projekte mit ihren gewaltigen Vermögen. Das Problem: Für diese Denkschule geht es vor allem um Langzeitrisiken in fernster Zukunft. Dass bereits heute Millionen Menschen für die Entwicklung von KI-Systemen ausgebeutet werden oder unter ihrem Einsatz leiden, interessiert da weniger.
Daran stört sich auch Anna Jobin, KI-Forscherin am Alexander von Humboldt Institut für Internet und Gesellschaft. Ihr zufolge entwerfe der Brief eine „Phantasiewelt“, in der ein paar technische Updates und ein kurzer Entwicklungsstopp ausreichten, „um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen“. Damit würden aber die Probleme von heute schon existierenden Systemen ignoriert und verharmlost. „Das Superintelligenz-Thema gehört in Philosophieseminare und nicht in die Politik.“ Das Schreiben sei kaum mehr als Agenda-Setting durch Tech-Leader.
Mit dem Criti-Hype in die Bullshit-Schleife
Dieses Agenda-Setting erfährt aktuell aber auch deshalb so große Resonanz, weil es den kaum hinterfragten Hype um ChatGPT und Co. noch zusätzlich befördert. Und das ist das eigentliche Problem des Briefes.
Den dahinter stehenden Mechanismus bezeichnete der Technologiewissenschaftler Lee Vinsel einst treffend als Criti-Hype. Damit meint er eine Form der Kritik, die sich aus einem Hype speist und diesen zugleich weiter anfüttert.
Ebendas tut der offene Brief: Vordergründig kritisiert er den unregulierten Einsatz von ChatGPT und ähnlicher Sprachmodellen. Allerdings verschafft sich die Kritik selbst größtmögliche Relevanz, indem sie die Chat-Bots nicht nur als erheblich leistungsfähiger darstellt als sie sind, sondern obendrein als Menschheitsbedrohung überzeichnet. Damit aber geht es nicht länger um das Klein-Klein von möglicher Diskriminierung oder den Gefahren von KI-generierter Desinformation, sondern um nicht weniger als die drohende Auslöschung der Menschheit durch eine nahende Superintelligenz.
Der Criti-Hype erzeugt damit – mit Harry Frankfurt gesprochen – eine gleich doppelte, sich selbst verstärkende Bullshit-Schleife. Nehmen wir den offenen Brief daher allzu ernst, drohen wir am Ende vor allem eines zu werden: Opfer eines künstlich generierten KI-Hypes.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Daniel Leisegang

Dieses bild teilen :. Civilians in both gaza and israel have been tragically affected by the israel hamas war. De bedste action oplevelse tilbud i dag.