Karen Hao spricht über "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" bei Politics and Prose mit Bina Venkataraman.
Bildinfo

Karen Hao author talk on "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" at Politics and Prose with Bina Venkataraman, author: Sdkb, via Wikimedia Commons, CC BY-SA 4.0.

Karen Hao spricht über "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" bei Politics and Prose mit Bina Venkataraman.
Bildinfo

Karen Hao author talk on "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" at Politics and Prose with Bina Venkataraman, author: Sdkb, via Wikimedia Commons, CC BY-SA 4.0.

Karen Hao spricht über "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" bei Politics and Prose mit Bina Venkataraman.
Bildinfo

Karen Hao author talk on "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" at Politics and Prose with Bina Venkataraman, author: Sdkb, via Wikimedia Commons, CC BY-SA 4.0.

Karen Hao spricht über "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" bei Politics and Prose mit Bina Venkataraman.
Bildinfo

Karen Hao author talk on "Empire of AI Dreams and Nightmares in Sam Altman's OpenAI" at Politics and Prose with Bina Venkataraman, author: Sdkb, via Wikimedia Commons, CC BY-SA 4.0.

Mächtige Geschichten. Der Journalismus und das Silicon Valley. Teil 2:

Empire of AI. Dreams and Nightmares in Sam Altman’s Open AI

Während die Peter Thiel Story (siehe Teil 1) den Protagonisten auf dem Höhepunkt seiner politischen Macht nach der Wiederwahl Trumps einführt, beginnt Karen Hao ihr Buch Empire of AI. Dreams and Nightmares in Sam Altman’s Open AI mit einer Videokonferenz im November 2023, in der Sam Altman mitgeteilt wird, dass er als CEO von OpenAI gefeuert wird. Hao macht in ihrem Buch von Anfang an deutlich, dass es ihr um die Entzauberung von Mythen aus dem Silicon Valley geht. Anders als der Podcast, der Soundbytes von Thiel immer nur aus wohlgefälligen Interviews entnehmen kann, in denen der Unternehmer seine Selbstinszenierung kontrolliert, folgt Hao deshalb ihren Protagonisten in Situationen, in denen das Image bricht, wie eben zu dem Zeitpunkt, als Altman kurzzeitig seine Position bei OpenAI verliert.

Es ist aber nicht nur die Person Altman, dessen Aufstieg innerhalb von OpenAI die Rahmenhandlung der Erzählung abgibt, die entmythologisiert wird. Aufklärerisch ist das Buch vor allem im Umgang mit den Erzählungen von OpenAI über sich selbst und über künstliche Intelligenz im Allgemeinen. Das gelingt auch, weil Hao die Entwicklungen von OpenAI in größere Kontexte und eine längere Geschichte einordnet. Sie zeichnet dabei nach, wie aus der einst gemeinwohlorientierten Stiftung OpenAI, die sich Transparenz und einem Open Source-Ansatz verpflichtet hatte, ein profitables Unternehmen wurde, das seine Algorithmen, Trainingsdaten, Rechenleistung und Energieverbrauch immer mehr der Geheimhaltung unterwirft und gleichzeitig mit seinen Produkten Chatgpt und Dall-E weltweit den Vorstellungsraum dafür bestimmt, was unter Künstlicher Intelligenz verstanden wird.

Laut eigenem Gründungsmythos formte sich OpenAI 2015, um Künstliche Allgemeine Intelligenz so zu entwickeln, dass sie keine Bedrohung für die Menschheit darstellt, sondern ihr dient. Schon in diesem Mythos erkennt Hao zentrale Argumentationsmuster, die OpenAI immer wieder hervorbringt, um rücksichtslos rasante Entwicklungsschritte zu legitimieren: Künstliche Allgemeine Intelligenz bzw. Artificial General Intelligence (AGI) sei nicht nur ein mögliches Entwicklungsziel, sondern ihr Erreichen sei eigentlich nur eine Frage der Zeit, weshalb es einer an den Interessen der Menschheit ausgerichteten Forschungsorganisation bedarf, die diese Entwicklung in eine positive Richtung steuert.

AGI war lange Zeit eher ein Thema für Science-Fiction als für seriöse Wissenschaft, doch durch die Milliarden Dollar schwere Forschung von OpenAI, so Hao, rückte es zunehmend ins Zentrum der KI-Forschung. Dabei lässt sich nicht genau definieren, was darunter eigentlich zu verstehen ist –selbst OpenAI tut sich mit einer Definition schwer. Hao zufolge ist AGI weniger eine wissenschaftliche Kategorie als – wie so häufig in der KI-Forschung – eine strategische Wortschöpfung, die den Fantasieraum jenseits des gegenwärtigen Stands der Technik öffnen soll. Schon über die Frage, wie Künstliche Intelligenz definiert werden kann, gibt es keinen Konsens, weshalb es sich in der Forschung eingebürgert hat, KI-Modelle an menschlichen Fähigkeiten zu messen. Da sich die Intelligenz dieser Modelle auf die Imitation von spezifischen menschlichen Fähigkeiten beschränkt, versuchten Forschende, mit Künstlicher Allgemeiner Intelligenz eine Bezeichnung für mögliche Modelle zu finden, die über die Imitation hinausgelangen, ohne dies konkreter definieren zu müssen. Damit erweist sich die Frage, welches technologische Ziel OpenAI anvisiert – das zu betonen, ist Hao wichtig – als deutungsoffen und kann immer wieder neu interpretiert werden.

In der Selbstinszenierung distanzierte sich OpenAI von Beginn an von anderen Silicon Valley-Unternehmen, denen es vor allem ums Geldmachen gehe. Die Stiftung verstand sich dagegen als Ausdruck der ambitioniertesten Forschung für allgemeinen Fortschritt. Dabei verglich sie die eigenen Anstrengungen zur Erreichung von AGI immer wieder mit der Mondlandung und dem Manhattan-Projekt zur Entwicklung der Atombombe. Gleichzeitig sollte die Stiftungsarchitektur den Sicherheitsbedenken von Enwickler:innen aus dem Valley Rechnung tragen, die nicht nur einen staatlichen Missbrauch von KI-Technologien fürchteten, sondern auch die Entwicklung von Software, die klüger als Menschen ist und sich dann gegen diese wendet: Sicherheit und nicht kommerzielle Interessen sollten deshalb die Forschung leiten. Diese Inszenierung in Kombination mit Elon Musks anfänglicher Unterstützung von OpenAI zog tatsächlich talentiertes Personal an, das von der „Zivilisierungsmission“ überzeugt war.

Hao zweifelt aber nicht nur die Erreichbarkeit von AGI an, sondern auch deren Nutzen: Eine Antwort auf die Frage, warum eine Künstliche Allgemeine Intelligenz entwickelt werden soll, fällt nicht nur OpenAI, sondern dem gesamten Sektor schwer. Verlautbarungen von OpenAI, dass mithilfe eines solchen „superintelligenten“ Modells die großen Fragen der Menschheit wie etwa der Klimawandel gelöst werden könnten, erweisen sich schon angesichts der Tatsache als fragwürdig, dass die energiehungrigen Datencenter, die für das KI-Training benötigt werden, den CO-2-Ausstoß erheblich steigern. Statt auf einen Nutzen für die Allgemeinheit lassen die vagen AGI-Definitionen für Hao eher darauf schließen, dass OpenAI vor allem daran arbeitet, KI-Modelle zu entwickeln, die die Ersetzung von menschlicher Arbeit versprechen. Die Debatte über AGI zu forcieren, hat, laut Hao, für OpenAI noch einen weiteren Vorteil: In politischen Anhörungen und Kampagnen gelang es OpenAI und insbesondere Sam Altman, die Diskussion wegzulenken von Fragen der gesetzlichen Regulation gegenwärtiger Modelle, die in Bezug auf ihren Ressourcenverbrauch, die Verletzung von geistigem Eigentum und drohenden Arbeitsplatzabbau in der Kritik standen. Stattdessen solle – so Altman – die Politik mächtige zukünftige Modelle regulieren, die eine Bedrohung der Menschheit darstellten. Gleichzeitig solle sie den US-amerikanischen KI-Unternehmen aber keine politischen Vorgaben machen, die sie in der Konkurrenz mit China benachteiligen.

Damit ist eine weitere Prämisse angesprochen, die bereits in OpenAIs Gründungsmythos angelegt ist und die Hao als „inevitability card“ (S. 79) bezeichnet. Es geht um die im Silicon Valley allgegenwärtige Formel „If we don’t do it, somebody else will“ (S. 79). Diese Formel wurde laut Hao auch immer wieder bemüht, um interne Kritik und Sicherheitsbedenken zu unterminieren und die Kommerzialisierung der Stiftung zu forcieren. Dieser Weg lag auch in dem begründet, was Hao als „scaling ethos“ (S. 117) bezeichnet, also die Vorstellung, dass sich die Leistung von KI-Modellen nur durch mehr Parameter, den Einsatz von mehr Rechenleistung pro Chip, mehr Chips und größeren Mengen an Trainingsdaten steigern ließe. Wenn Leistungssprünge nur durch den massiven Mehreinsatz von Ressourcen erreicht werden können, so die Schlussfolgerung von OpenAIs Führung, dann könne nur eine kommerzielle Anwendung der Forschung dafür ausreichend Kapital einwerben. Als dann Microsoft als Großinvestor bei der Stiftung einstieg, brachte das „scaling ethos“ tatsächlich beeindruckende Fortschritte der KI-Technologie, die schlussendlich in den kommerziellen Anwendungen Dall-E und ChatGPT die Weltöffentlichkeit zunächst kostenlos ins Staunen versetzte. Diese eindrucksvollen Resultate der Skalierungsstrategie, so hält Hao fest, hätten aber nirgendwo sonst als im Silicon Valley und von keinem anderen Akteur als von OpenAI erreicht werden können, womit sie die „inevitability card“ zurückspielt: Nur unter besonderen Bedingungen gelang es, so viele Milliarden US-Dollar an Investitionen, die Hardware und talentierte Menschen für eine technologische Vision einzusammeln, von der niemand sagen konnte, wie sie konkret aussehen würde und wofür sie gebraucht werde.

Hao erzählt von mächtigen Menschen und Unternehmen, ohne in Ehrfurcht zu erstarren. Sie macht das auch, indem sie die Grenzen ihrer Macht auslotet. Der Erfolg des „scaling ethos“ hat für sie sein Limit erreicht: Mehr Trainingsdaten lassen sich kaum noch finden, und gleichzeitig hat der Einbezug von Daten von immer schlechterer Qualität bereits negativen Einfluss auf den Wert des Outputs: So müssen etwa die im Internet kursierenden Verschwörungstheorien den Modellen durch sog. Reinforcement learning from human feedback wieder abtrainiert werden. Datencenter werden zwar in immer größeren Ausmaßen in Ländern des globalen Südens gebaut, doch der immense Verbrauch von Trinkwasser, das für deren Kühlung gebraucht wird, ruft immer stärkeren Protest der lokalen Bevölkerungen hervor. Indem Hao erfolgreiche Protestkampagnen gegen Datencenter in Chile und Uruguay mit in die Analyse einbezieht, führt sie vor, dass sich der Macht von OpenAI und Co. etwas entgegensetzen lässt. Die Geheimhaltung der Trainingsdaten führt zudem dazu, dass von außen nicht mehr beurteilt werden kann, ob die KI-Modelle eigentlich besser bzw. „intelligenter“ werden: Generiert das Modell wirklich die Antwort auf einen Prompt oder plagiiert es lediglich eine Antwort aus den eigenen Trainingsdaten? Der Erfolg führt OpenAI nach Haos Ansicht schlussendlich in eine technologische Sackgasse. Für die Weiterentwicklung von KI brauche es nicht einen Ansatz des Immer-Mehr, sondern neue Modelle mit begrenzten Aufgaben und alternative Forschungsansätze, die OpenAI als Trendsetter an den Rand drängte. OpenAI und das Silicon Valley verengten den Blick auf KI durch die Präferenz von spezifischen Forschungssträngen, die als leichter kommerzialisierbar erschienen. Den Blick gilt es nun wieder zu öffnen und eine öffentliche Forschung, die der Transparenz verpflichtet ist, zu stärken – auch, indem man den KI-Mythen aus dem Valley entgegentritt: Dafür müssen sie als Geschichten kenntlich gemacht werden.

von

zurück

Zitation

Florian Hannig, Mächtige Geschichten. Der Journalismus und das Silicon Valley. Teil 2:. Empire of AI. Dreams and Nightmares in Sam Altman’s Open AI, in: Zeitgeschichte-online, , URL: https://zeitgeschichte-online.de/maechtige-geschichten-der-journalismus-und-das-silicon-valley-teil-2