Drücken Sie „Enter“, um den Inhalte zu überspringen

Künstliche Intelligenz: „Eines der größten sozialen Experimente aller Zeiten“

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist…
Künstliche Intelligenz und andere innovative Technologien entwickeln sich stetig im rasanten Tempo weiter. Was aber braucht es dafür, damit diese Werkzeuge für uns als Gesellschaft wirken?
Die Soziologin Gina Neff am 3. Mai 2023 in Berlin – Alle Rechte vorbehalten Mathias Völzke, Montage: netzpolitik.orgIch möchte mit einer Metapher beginnen, die von Stuart Russell stammt, einem britischen KI-Forscher, der in den Vereinigten Staaten lebt. Russel schlägt vor, dass wir uns Straßenbauingenieure vorstellen, die sehr gut darin sind, Asphalt herzustellen. Und diese Ingenieure würden sagen, weil sie so gute Ingenieure seien, sollten sie auch darüber entscheiden, wo der Asphalt verlegt wird.
Der Strand? Brauchen wir eigentlich nicht. Es wäre viel besser, er wäre asphaltiert. Dein Garten? Gras wird überbewertet, Asphalt ist viel effizienter. Du willst doch nicht hinter der Entwicklung zurückbleiben. Du musst anfangen zu pflastern – und zwar jetzt und sofort.
Die KI, die uns umgibt
In vielerlei Hinsicht ist dies eine treffende Metapher für das, was sich derzeit in der Debatte rund um Künstliche Intelligenz vollzieht.
Lassen wir für einen Moment den Hype, den Überschwang und die Ängste beiseite, die generative KI-Modelle wie ChatGPT, DALL-E und ihresgleichen auslösen. Denken wir stattdessen darüber nach, wie diese Technologien bald fast unsichtbar in zahlreiche Produkte und Dienstleistungen integriert sein werden, die wir in unserem Alltag nutzen. Im Gegensatz zu Asphalt werden wir dann nicht mehr in der Lage sein zu erkennen, ob wir auf Werkzeuge, Interaktionen oder Entscheidungen zurückgreifen, die möglicherweise für uns getroffen wurden.
Es gibt noch eine andere Art, wie die Infrastruktur zu einer sehr wichtigen Metapher dafür wird, wie wir über unsere täglichen Interaktionen nachdenken. Wer sich mit Wissenschaft und Technologie beschäftigt, versteht, dass Infrastrukturen große gesellschaftliche Macht entwickeln, sobald sie unsichtbar werden. Dass die Unsichtbarkeit der Infrastruktur buchstäblich das ist, was eine Infrastruktur ausmacht.
Wir haben Entscheidungen getroffen, die uns heute in die Lage versetzen zu verstehen, wie technologische Infrastruktur unsere Gesellschaft beeinflusst. Und wir können heute Entscheidungen treffen, damit Technologien der „Künstlichen Intelligenz“ für uns funktionieren – und besser funktionieren.
Aber leider werden diese Entscheidungen derzeit lautstark von Leuten vertreten, die behaupten, etwas von Technik zu verstehen. Und nicht von denen unter uns, die sagen: Moment mal, wir sollten ein gewisses Maß an Autonomie, Verantwortlichkeit und Transparenz bei den getroffenen Entscheidungen haben.
Daten werden gemacht
Wir können unterschiedlich über die Daten nachdenken, die unsere technologischen Systeme antreiben. Diese Daten sind gemacht. Sie sind nicht natürlich. Es sind auch keine vorgefundenen Daten. Stattdessen sind sie immer das Produkt von Entscheidungen und Wahlmöglichkeiten. Und diese Entscheidungen haben sowohl soziale als auch technologische Auswirkungen.
Der im Silicon Valley häufig wiederholte Satz, Daten seien das neue Öl, stimmt also nicht. Diese Daten liegen nicht herum und warten darauf, gefunden zu werden. Wenn überhaupt, dann sind Daten die neue Wasserkraft. Die Dämme für unsere kollektiven Daten müssen konstruiert und gebaut werden. Die Daten müssen aufgefangen und nutzbar gemacht werden.
Die falsche Vorstellung, dass es da draußen eine irgendwie natürliche und objektive Datenrealität gibt, spielt in eine Reihe politischer und kultureller Entscheidungen hinein. Entscheidungen darüber, wer die Macht über die zu treffenden Entscheidungen haben soll.
Produkte menschlicher Interaktion
Was sind das für Entscheidungen? Es gibt eine zweite Art, wie wir Daten über nachdenken können, die unsere Systeme heute antreiben: als Produkt menschlicher Interaktionen und Kommunikation. Demnach sind die großen Sprachmodelle (LLMs), die laut der Medien eine gewaltige Bedrohung darstellen, aus den Spuren dieser Interaktionen hervorgegangen. Und diese Daten sind wir. Aber ohne den Kontext werden diese Interaktionen bedeutungslos.
Vor zwei Jahren verfassten zwei Google-Forscher:innen gemeinsam mit anderen Autor:innen eine Studie. Diese Studie legt bereits dar, dass der Weg, auf dem sich KI-Entwicklung vollzieht, ein falscher ist. Und tatsächlich ist es für Sozial- und Geisteswissenschaftler:innen eine unsinnige Vorstellung, dass wir massive Datenmengen und unsere Interaktionen dafür nutzen, um Intelligenz zu entwickeln.
Die Forscher:innen schufen die Metapher des stochastische Papageien. Demnach plappern große Sprachmodellen nur das nach, was wahrscheinlich als nächstes Wort, als nächster Satz, als nächste Formulierung folgt. Aber wie wir wissen, ist Sprache, wie die Linguistin Emily Bender betont, mehr als nur Nachplappern. Stattdessen geht es vielmehr darum, den sprachlichen Kontext zu verstehen. Es geht um ein grundlegendes Verständnis all dessen, was mein Mitautor Peter Nagy und ich die imaginären Möglichkeiten von Technologien („Imagined Affordance“) genannt haben.
Ohne Kontext sind Daten entmenschlicht
Ein anderer Linguist hat dazu eine interessante Idee vorgebracht: Stellen wir uns vor, dass eine Arbeiterin im Restaurant ihr Haarnetz vergessen hat. Wenn wir jetzt fragen würden, was sich besser als Ersatz für dieses Haarnetz eignen würde – ein Hamburgerbrötchen oder eine Sandwichpackung –, dann wäre das für Menschen keine schwere Entscheidung.
Stell Dir vor, Du würdest Dir ein Brötchen auf Deinen Hinterkopf legen. Das funktioniert konzeptionell nicht besonders gut. Wir haben ein mentales Bild, das uns sagt, dass das nicht richtig ist. Doch Sprachmodelle verfügen über diese Bilder nicht. Was sie haben, ist eine Karte. Eine Karte der Gespräche, die im Internet stattgefunden haben, eine Karte unserer Interaktionen. Aber sie haben keine Karte der konzeptionellen Navigation.
Ohne diesen Kontext sind die Daten zwar menschlichen Ursprungs, aber zugleich sind sie völlig entmenschlicht. Die großen Sprachmodelle, die aktuell den Enthusiasmus für Künstliche Intelligenz beflügeln, können uns deswegen auch nicht helfen, uns in diesen Systemen zurechtfinden.
Der Griff nach politischer, wirtschaftlicher und sozialer Macht
Nach der Veröffentlichung sahen sich die Google-Forscher:innen mit dem Vorwurf konfrontiert, bei der Entwicklung großer Sprachmodelle zu allzu großer Vorsicht aufgerufen zu haben. Tatsächlich mahnten sie, dass für die Entwicklung von KI-Modellen immer mehr Ressourcen benötigen würden. Diese müssten immer feiner in das System eingearbeitet werden, so dass dieses nicht nur stochastisch, sondern am Ende auch asymptotisch würde. Die Erweiterung dieser Modelle erfordert demnach immer mehr Daten, Ressourcen und Zeit, wobei der Ertrag immer geringer würde. Die Autor:innen haben daher vorgeschlagen, dass die Vorteile besserer Modelle gegen die finanziellen und ökologischen Kosten abgewogen werden sollten.
Kürzlich schrieb der „New York Times“-Kolumnist Thomas Friedman, dass die Menschheit derzeit zwei Büchsen der Pandora zugleich öffne – nämlich die der KI und die des Klimawandels. Was wäre, so Friedman, wenn wir das eine dazu nutzten, um dem anderen zu helfen? Dieser Vorschlag leugnet allerdings die Tatsache, dass derzeit eine wachsende physische Infrastruktur aufgebaut wird, die diese Modelle vorantreiben soll. Wo aber sind die Leitplanken? Wo ist die Farbe auf dem Asphalt? Wo sind die Autobahnschilder? Wo ist die Fahrausbildung? Wo ist die Infrastruktur, die wir alle für die Sicherheit in unserer sozialen und kulturellen Welt genießen?
Angesichts all dessen würde ich die These aufstellen, dass wir es derzeit mit einem der weltweit größten sozialen Experimente aller Zeiten zu tun haben. Dass die Vorstellung, dass Macht in Daten steckt, auf einer überaus schlichten Vorstellung sozialen Verhaltens beruht. Und dass die Vorstellung von Menschlichkeit, die in die KI-Modelle eingebaut ist, ebenfalls sehr simpel ist. Dahinter aber steht der Griff nach politischer, wirtschaftlicher und sozialer Macht. Und wir haben zugelassen, dass die Idee datengesteuerter Effizienz das Kriterium ist, nach dem wir unsere Entscheidungen bewerten.
Die Folgen unserer Entscheidungen
Die Daten, die diese Unternehmen verwenden, stellen eine enorme finanzielle Investition dar. Und machen wir uns nichts vor: Die großen Sprachmodelle, über die wir hier sprechen, befinden sich in der Hand einiger weniger Unternehmen, die selbst eine der gewaltigsten finanziellen Machtkonzentrationen darstellen, die die Menschheit je gesehen hat. Wenn wir also über Daten als Macht sprechen, müssen wir auch über jene Entscheidungen nachdenken, die in eine solche Infrastruktur und derartige ökonomische Machtkonzentration hineinwirken, und auf denen unsere Gesellschaft dann gründet.
Die derzeitigen Betriebskosten für ChatGPT – nicht die Trainingskosten, sondern die täglichen Betriebskosten – liegen bei schätzungsweise mehr als 600.000 Euro pro Tag. Diese Summe fällt allein für den Betrieb der Infrastruktur dieses Sprachmodells an und für die Menschen, die es begeistert nutzen. Ist dies die Art von Zukunft, die wir wollen? Und wollen und können wir uns als Gesellschaft diese Art von Zukunft leisten – wenn wir den Kampf gegen die Klimakrise und für das Ziel der „Netto Null“-Emissionen als Teil der anderen Büchse der Pandora betrachten?
Was ist mit den Arbeitsplätzen?
Wir haben über Infrastruktur gesprochen, und jetzt möchte ich über Arbeit sprechen. Gerade heute schickte mir ein Reporter ein paar Fragen: Wird die KI unsere Jobs wegnehmen? Gibt es Branchen, in denen KI besonders viele Jobs kosten wird? Und wie lange wird das dauern? Kein Problem, lassen Sie mich diese Fragen in gerade einmal drei Sätzen per E-Mail beantworten!
Schauen wir uns den Stand des ökonomischen Wissens über Produktivität an, dann sehen wir vor allem eine Art kollektives Achselzucken. Wir wissen eigentlich nicht, wie sich Künstliche Intelligenz auf die Arbeit auswirken wird. Die Internationale Arbeitsorganisation ILO schätzt, dass in den kommenden zehn Jahren 100 Millionen Arbeitsplätze hinzukommen werden, 75 Millionen Arbeitsplätze werden verloren gehen. Im Ergebnis wäre das ein Nettogewinn von 25 Millionen Arbeitsplätzen. Das ist großartig – es sei denn, Du bist einer der 75 Millionen Menschen, die wegen Künstlicher Intelligenz ihren Arbeitsplatz verlieren werden.
Die Art unserer Arbeit kann sich jederzeit rasant ändern – konkret die einzelnen Aufgaben, die unsere beruflichen Tätigkeiten ausmachen. Wenn die KI mich eines Tages als Betreuerin von Doktorarbeiten ablöst, dann wird sie den Studierenden drei Dinge sagen: Du brauchst eine stärkere Einleitung. Du brauchst bessere Übergänge zwischen Deinen Thesen und du brauchst einen stärkeren Schluss. Denn das ist, was ich immer sage.
In dem Getöse der vergangenen Monate rund um KI haben wir vergessen, dass eine besonders wichtige Aufgabe darin besteht, Technologien in der Praxis zum Laufen zu bringen. Wenn wir uns die Anfänge der automatisierten Technologie ansehen, die etwa die Arbeit umfassend revolutionieren sollte, dann fiel die Begeisterung damals gewaltig aus. Allgemein wurde erwartet, dass die neuen Technologien die Unternehmen, die Beschäftigten und die Art, wie gearbeitet wird, geradezu auf den Kopf stellen. Die Automatisierung werde Arbeitsplätze vernichten und Arbeitsplätze schaffen, hieß es – ganz so, wie wir es derzeit über die KI hören.
Doch auch nach all den Jahren sind die erhofften Veränderungen nicht eingetreten, obwohl die Automatisierung inzwischen weit vorangeschritten ist. Warum aber ist es so schwer, ganze Branche auszulöschen oder Arbeitsweisen umzukrempeln?
Die Menschen, die den Wandel herbeiführen
Die Antwort lautet: Wir selbst sind der Grund. Wir sprechen meist über Technologie, als würde sie etwas für uns tun. Und nicht so, als wäre Technologie das Ergebnis zahlreicher Aus- und Verhandlungen.
Diese Verhandlungen werden Menschen am Arbeitsplatz auch mit Blick auf die KI führen. Sie werden fragen, wie sich die neuen Instrumente zu ihrem Vorteil nutzen lassen. Springt dabei etwas Nützliches für sie heraus? Und welche Teile können sie einfach ignorieren oder ablehnen?
Dahinter steht ein Konzept der verhandelten Innovation, konkret ein mehrstufiges Modell dafür, wie neue Technologien sinnvoll eingesetzt werden und wie sie unsere Arbeit verändern. Die Sozialwissenschaftler werden erkennen, dass es sich dabei um ein Zusammenspiel von sozialen Strukturen und lokalisierten Praktiken handelt – mit anderen Worten: Das Konzept enthält Bausteine der Sozialtheorie, die das Verhältnis von individuellem Handeln sowie organisatorischen und institutionellen Zwängen beschreiben. Dieses Gleichgewicht zwischen dem Individuum auf der einen Seite sowie dem Institutionellen, dem Organisatorischen, dem Sozialen und dem Kulturellen auf der anderen Seite werden sie nicht in Theorien über technologische Störungen finden, geschweige denn in den aktuellen Schlagzeilen zu ChatGPT.
Wir müssen als Gesellschaft herausfinden, was wir wollen
Unser Modell beginnt mit dem Prozess der Sinnfindung. Und ein Teil dieser Sinnfindung ist das, was wir „Zukunft der Arbeit“ nennen, die Frage also, wie wir Zukunft gestalten und welche Rolle eine neue Technologie dabei spielt.
Diese sinnstiftende Arbeit – und hier verwende ich „Sinnstiftung“ im Sinne des Organisationspsychologen Karl Weich – führt zu bestimmten Erwartungen, die festlegen, wie wir mit neuen Technologien an unserem Arbeitsplatz interagieren. Diese Erwartungen bewirken und formen, wie neue Technologien entstehen. Und es zeigt sich, dass die Menschen, die einen solchen Wandel herbeiführen, nicht die Technologieentwickler:innen sind. Es sind nicht die CEOs und auch nicht die CTOs. Sondern es sind jene Menschen, die an ihrem Arbeitsplatz entscheiden, was für sie und für ihr Team funktioniert. Und in diesem Prozess entscheiden sie auch, welche Regeln sie brechen – also gegen welche sozialen, organisatorischen und institutionellen Zwänge sie verstoßen.
Hier schließt sich der Kreis. Denn um diese Veränderungen auszuhandeln, braucht es Zeit. Und es ist dieser Prozess des Aushandelns, der es uns ermöglicht, die Technologie im Einsatz zu sehen, die sozio-technische Infrastruktur, die sie sein kann.
Wenn wir also die Künstliche Intelligenz für uns arbeiten lassen wollen, dann müssen wir sie zum Laufen bringen. Wir müssen als Gesellschaft herausfinden, was wir tun und was wir ändern wollen. Mit dieser Vorstellung von sozialer Handlungsfähigkeit werden die zu fällenden Entscheidungen erkennbar. Und diese Entscheidungen sind wichtig für unsere Zukunft.
Die Zukunft der KI
Und damit komme ich zur Frage der Zukunft – oder konkreter zur These, dass KI das ist, was wir daraus machen. Ich möchte vorab einen kurzen Überblick darüber geben, wie Arbeit und Infrastruktur uns dabei helfen, über die Zukunft nachzudenken.
Erstens, der Begriff der Infrastruktur, also die Entscheidungen darüber, welche Art technologischer Grundlagen aktuell geschaffen werden. Damit meine ich: Welche Arten von Standards, Daten, Systemen, Normen und Herausforderungen werden wir innerhalb unserer Gesellschaften zulassen und tolerieren? Und werden diese Entscheidungen, die jetzt getroffen werden, einer breiten Öffentlichkeit gegenüber zu rechtfertigen sein?
Eine zweite Entscheidung im Zusammenhang mit der Infrastruktur besteht darin, ob wir bestimmten Unternehmen, die über enorme Datenmengen verfügen, ihre Macht erhalten oder nicht. Das beginnt bereits mit einer allzu panikmachenden Rhetorik gegenüber KI-Technologien. Denn diese unterstützt letztendlich die Argumente der Unternehmen, indem wir sagen: Es gibt keine Alternative zur KI.
Tatsache aber ist: Es gibt solche Alternativen. Die Fragen, die ich mir beispielsweise stelle, lauten: Wie können wir die Offenheit dieser Systeme erhalten? Wollen wir eine geopolitische Realität forcieren, in der die materiellen und infrastrukturellen Ressourcen für den Aufbau gewaltiger Rechensysteme so groß sind, dass dafür staatliches Handeln und demokratische Werte an den Rand geschoben werden? Wollen wir tatsächlich Entscheidungen zugunsten einer Infrastruktur treffen, die der Innovation Vorrang vor allen anderen Werten einräumen? Oder werden wir danach streben, wie wir diese Technologien kreativ und zum Wohle der Gesellschaft einsetzen können?
Eine digitale Gesellschaft, die funktioniert – für uns alle
Was aber ist dieses Wohl? Was heißt das? Wenn wir eine gute digitale Gesellschaft haben wollen, müssen wir verstehen, wie das Gute aussieht. Wir sollten in der Lage sein, es zu definieren und zu messen. Und wir müssen in der Lage sein, entsprechende technische Spezifikationen an die Ingenieur:innen zu übergeben.
Die Herausforderung besteht darin, über diese Ideen des Guten nachzudenken und darüber, wie wir aus sozialwissenschaftlicher Sicht dazu etwas beitragen können. Das ist eine Herausforderung, vor der viele von uns – mich eingeschlossen – bisher zurückgeschreckt sind.
Mein Appell vor allem an die Forscher:innen lautet daher wie folgt: Wir müssen aktiv dazu beitragen, dass unsere digitale technologische Infrastruktur funktioniert – und zwar für uns alle. Die Entscheidungen, die wir aktuell mit Blick auf Technologien der Künstlichen Intelligenz treffen, sind noch keineswegs in Stein gemeißelt. Wir verfügen vielmehr über verschiedene Optionen. Aber es wird viel Arbeit und schwierige Verhandlungen erfordern, dominante Narrative in Frage zu stellen und sich dem Wandel zu widersetzen. Doch nur so können wir die digitale Gesellschaft aufbauen, die funktioniert – und zwar für uns alle.
Der Text basiert auf einem Vortrag, den Gina Neff im Rahmen der Reihe Making sense of the digital society gehalten hat. Die Redenreihe ist eine Kooperation des Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) und der Bundeszentrale für politische Bildung (bpb).
Gina Neff ist geschäftsführende Direktorin des Minderoo Centre for Technology & Democracy an der University of Cambridge. Sie erforscht, wie sich die rasante Ausbreitung unserer digitalen Informationsumgebung auf Beschäftigte und Arbeitsplätze sowie auf unser Alltagsleben auswirkt. Gina Neff hat an der Columbia University in Soziologie promoviert und berät internationale Organisationen wie die UNESCO, die OECD und das Women’s Forum for the Economy and Society. Zu ihren Veröffentlichungen gehören Venture Labor (MIT Press 2012), Self-Tracking (MIT Press 2016) und Human-Centered Data Science (MIT Press 2022).

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Gastbeitrag

© insidekwara by h.