AktuellDemokratieEuropaInternationalRubrikTechnik & UnterhaltungWirtschaft

Die doppelte Angst der KI-Experten: Zwischen Weltuntergang und Wettbewerbsvorteil

Hunderte Forscher:innen und CEOs warnen vor existenziellen Risiken durch Künstliche Intelligenz – und fordern gleichzeitig mehr Regulierung. Doch hinter den Warnungen vor dem digitalen Armageddon verbergen sich auch handfeste Wirtschaftsinteressen. Eine Recherche von Michael Wögerer über die politische Ökonomie der KI-Apokalypse.

Die 22-Wort-Warnung

Im Mai 2023 veröffentlichte das Center for AI Safety eine denkbar knappe Erklärung:

„Die Eindämmung des Risikos der Auslöschung durch KI sollte eine globale Priorität neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg sein.“

22 Wörter, über 350 Unterschriften – darunter Geoffrey Hinton, der „Godfather of AI“, OpenAI-CEO Sam Altman und Microsofts Chief Technology Officer Kevin Scott.

Die Botschaft war klar: Künstliche Intelligenz könnte die Menschheit auslöschen. Und sie kam nicht von technikfeindlichen Außenseitern, sondern von jenen, die an vorderster Front dieser Technologie arbeiten – und damit Milliarden verdienen.

Seitdem häufen sich die Warnungen. Hinton, der 2024 den Nobelpreis für seine KI-Forschung erhielt, schätzt die Wahrscheinlichkeit einer KI-bedingten Auslöschung der Menschheit auf 10 bis 20 Prozent. In seiner Nobelpreis-Rede warnte er: „In naher Zukunft könnte KI genutzt werden, um schreckliche neue Viren und entsetzliche tödliche Waffen zu erschaffen, die selbst entscheiden, wen sie töten oder verstümmeln.“

Auch in Österreich und Deutschland wird die Debatte intensiv geführt. Doch während manche Expert:innen tatsächlich existenzielle Ängste umtreiben, mehren sich kritische Stimmen, die hinter den Weltuntergangsszenarien eine raffinierte Strategie vermuten: Die Warnung vor hypothetischen Zukunftsrisiken lenke von den sehr realen Schäden ab, die KI bereits heute anrichtet – und zementiere die Marktmacht der etablierten Konzerne.

Effective Altruism: Weltrettung als Geschäftsmodell

Um die Motivationen hinter den KI-Warnungen zu verstehen, muss man einen Blick auf eine einflussreiche philosophische Bewegung werfen: den Effektiven Altruismus (EA). Diese überwiegend weiße, männliche Gruppe mit Wurzeln in Oxford und Silicon Valley hat in den letzten zwei Jahrzehnten erheblichen Einfluss gewonnen – und die KI-Forschungsagenda maßgeblich mitgeprägt.

Der Effektive Altruismus definiert sich durch „evidenzbasiertes und rationales Denken, um herauszufinden, wie man anderen am besten helfen kann“. Für viele EA-Anhänger:innen führte diese „Evidenz“ zu einer bemerkenswerten Schlussfolgerung: Das drängendste Problem der Menschheit sei nicht der Klimawandel, nicht Armut oder Krieg – sondern die hypothetische Gefahr, dass eine künstlich geschaffene superintelligente Maschine die Menschheit vernichtet.

Die Bewegung wird von Tech-Milliardären finanziert, die zum Teil selbst EA-Anhänger sind: Elon Musk, Peter Thiel, Dustin Moskovitz, Jaan Tallinn und – bis zu seinem spektakulären Fall – Sam Bankman-Fried, der Gründer der Krypto-Plattform FTX. Diese Männer haben Hunderte Millionen Dollar in Initiativen investiert, die eine „wohlwollende künstliche allgemeine Intelligenz“ (AGI) entwickeln sollen – eine Art göttliche Maschine zum Wohle der Menschheit.

OpenAI, 2015 von Musk und Thiel mit einem Budget von einer Milliarde Dollar gegründet, ist das prominenteste Beispiel. Die Mission: „Sicherstellen, dass künstliche allgemeine Intelligenz der gesamten Menschheit zugutekommt.“ Doch fünf Jahre später veröffentlichte OpenAI GPT-3 und löste damit einen erbitterten Wettlauf um immer größere Sprachmodelle aus – mit all den Problemen, die Forscher:innen wie Timnit Gebru vorhergesagt hatten: Hassrede, Desinformation, Ausbeutung von Arbeitskräften im Globalen Süden.

Die Kritik: „Selbstbedienungs-Hype als Alarmismus getarnt“

Dylan Baker, Forschungsingenieur am Distributed AI Research Institute (DAIR), bringt die Kritik auf den Punkt: „Täuscht euch nicht: Es ist selbstbedienender Hype, der als Alarmschlagen getarnt ist.“ Die Diskussionen über hypothetische existenzielle Risiken würden von den konkreten, bereits existierenden Schäden ablenken: algorithmische Diskriminierung, ausgebeutete Arbeitskräfte, gestohlene Daten und massiver Energieverbrauch, der die Klimakrise anheizt.

„Die Schäden durch sogenannte KI sind real und gegenwärtig und folgen aus den Handlungen von Menschen und Unternehmen, die automatisierte Systeme einsetzen. Regulierungsbemühungen sollten sich auf Transparenz, Rechenschaftspflicht und die Verhinderung ausbeuterischer Arbeitspraktiken konzentrieren.“
– Distributed AI Research Institute (DAIR)

Der Technologie-Theoretiker Douglas Rushkoff sieht in den Warnungen vor allem Marketing und Positionierung: „Sie sagen im Wesentlichen: ‚Haltet mich zurück!‘ Es ist einfach eine Form des Bluffens. Es tut mir leid, aber ich kaufe es einfach nicht ab.“

Die politische Ökonomie der KI-Regulierung

Eine Studie der RAND Corporation aus dem Jahr 2024 wirft ein erschreckendes Licht auf den Einfluss der KI-Industrie auf die Politik. Demnach versuchten KI-Unternehmen bereits damals, durch zahlreiche direkte und indirekte Kanäle Einfluss auf die US-Politik zu nehmen – mit dem Ziel, regulatorische Vereinnahmung (regulatory capture) zu erreichen: Politik, die industriellen Interessen dient und gegen das öffentliche Interesse verstößt.

Die Zahlen aus dem Jahr 2026 sind beeindruckendOpenAI gab 2,99 Millionen Dollar für Lobbyarbeit auf Bundesebene aus – ein Siebenfaches gegenüber 2024. Anthropic, das sich als „KI-Sicherheitsunternehmen“ positioniert, kam auf 3,13 Millionen Dollar. Beide Unternehmen begannen erst 2023 mit systematischer Lobbyarbeit. Zum Vergleich: Insgesamt investierten mehr als 450 Organisationen in KI-Lobbyismus – 2016 waren es noch sechs.

Die vier Hauptmethoden des direkten Einflusses

Die RAND-Forscher:innen identifizierten vier Hauptmethoden:

  • Agenda-Setting: 15 von 17 befragten Expert:innen nannten dies als Hauptstrategie. Die Industrie verbreite Anti-Regulierungs-Narrative und lenke politische Gespräche gezielt auf bestimmte KI-Probleme – oder eben weg von ihnen.
  • Advocacy: 13 Expert:innen bestätigten intensive Lobbyarbeit von KI-Unternehmen und Branchenverbänden.
  • Akademische Vereinnahmung: 10 Expert:innen warnten, dass die Industrie durch Finanzierung von Forschung und „Community Building Grants“ an Elite-Universitäten Einfluss auf die Forschungsagenda nehme.
  • Drehtüreffekt: Sechs Expert:innen erwähnten den Wechsel von Personal zwischen Industrie und Regierung.

Wettbewerbsvorteil durch Regulierung

Ein besonders perfider Mechanismus ist die sogenannte „strategische Regulierungsbefürwortung“: Etablierte Unternehmen fordern Vorschriften, die sie selbst leicht erfüllen können – die aber für kleinere Wettbewerber unüberwindbare Hürden darstellen.

Eine Studie der Georgetown University von 2024 analysiert diese Dynamik: „Regierungen konkurrieren mit anderen Regierungen darum, KI-Regulierung, Datenschutz und Urheberrecht zu nutzen, um ihre nationalen Interessen zu fördern; und Unternehmen verhalten sich in diesem Wettbewerb strategisch, indem sie manchmal versuchen, den regulatorischen Rahmen zu vereinnahmen.“

Das kalifornische AI-Sicherheitsgesetz SB 53, das im Januar 2026 in Kraft trat, illustriert diese Strategie perfekt. Das Gesetz verpflichtet große KI-Modellanbieter, Sicherheitsregeln zu erstellen und sich selbst zu melden – oder Strafen zu zahlen. OpenAI soll dagegen lobbyiert haben; Anthropic befürwortete es schließlich.

Doch wie bedeutsam ist dieser Unterschied? Kyle Qi von Llama Ventures, das indirekt an Anthropic beteiligt ist, meint: „Es ist eine Positionierung als sicherheitsorientiert … aber es war eher ein Werbezug.“ Michael Kleinman vom Future of Life Institute ist noch direkter:

„Solange wir nicht sehen, dass die Unternehmen tatsächlich bedeutsame Gesetzgebung unterstützen, ist das, was sie über ihren Wunsch nach Regulierung sagen, leeres Gerede … Die Industrie als Ganzes ist versessen darauf, Regulierung zu vermeiden.“
– Michael Kleinman, Future of Life Institute

Die Apokalypse als Geschäftsmodell

Der Wissenschaftsjournalist Ted Chiang brachte bereits 2017 die Absurdität der KI-Apokalypse-Szenarien auf den Punkt. Die hypothetische superintelligente KI, die in den Warnungen beschworen wird, „macht das, was jedes Tech-Start-up sich wünscht – sie wächst exponentiell und vernichtet ihre Konkurrenten, bis sie ein absolutes Monopol erreicht hat.“

„Die Vorstellung von Superintelligenz ist so schlecht definiert, dass man sich vorstellen könnte, sie nimmt fast jede Form an. Aber wenn Silicon Valley versucht, sich Superintelligenz vorzustellen, kommt dabei ein ungezügelter Kapitalismus heraus.“
– Ted Chiang, Wissenschaftsjournalist

Der Autor Eliezer Yudkowsky, Co-Autor des Buches „If Anyone Builds It, Everyone Dies“, verkörpert diese Denkweise exemplarisch. In seinem Werk warnt er vor einer KI, die die Menschheit auslöschen könnte – plädiert aber zugleich für die gleichen transhumanistischen Träume wie die Tech-Milliardäre: die Kolonisierung der Sterne, die Heilung des Alterns. Der einzige Unterschied: Das Timing.

Ein Artikel in The Atlantic analysiert: „Yudkowskys Ängste vor der Auslöschung sind nur die Kehrseite des Versprechens eines KI-Paradieses. Aber es gibt nichts Unvermeidliches oder auch nur besonders Wahrscheinliches an Apokalypse oder Utopie, oder an der Möglichkeit superintelligenter KI selbst.“

Die bittere Ironie: Yudkowsky und seine Mitstreiter sind „nützliche Idioten“. Sie glauben an dieselben Fantasien wie die Tech-Oligarchen – sie unterscheiden sich nur darin, wann die Menschheit „bereit“ sein wird. Dabei lenken sie von der eigentlichen Bedrohung ab: den mächtigen Menschen, die diese Technologie heute bauen und einsetzen.

Milliarden für Einfluss

Die finanziellen Dimensionen des KI-Einflusses sind gewaltig. Laut New York Times spendeten KI-Unternehmen, mit der Industrie verbundene Gruppen und Top-Führungskräfte mindestens 83 Millionen Dollar im Jahr 2025 an föderale Wahlkämpfe und Komitees. OpenAI allein verpflichtete sich, in den nächsten acht Jahren 1,4 Billionen Dollar in Rechenzentren zu investieren – offenbar ohne vollständigen Finanzierungsplan.

Lobbyziele 2025

Beide Unternehmen, OpenAI und Anthropic, lobbyierten 2025 intensiv für:

  • Nationale Sicherheit: Verträge mit Regierungsbehörden, die ihre KI-Modelle nutzen
  • KI-Infrastruktur: Steuererleichterungen, Subventionen, vereinfachte Genehmigungsverfahren für Rechenzentren
  • Exportkontrollen: Beschränkungen für den Verkauf fortschrittlicher KI-Chips an China und Russland

Die Botschaft an Washington ist simpel: Schnelleres Wachstum stärkt die Wettbewerbsfähigkeit der USA. In einem Brief an das Weiße Haus schrieb OpenAI-Chef für globale Angelegenheiten, Chris Lehane: „Der nationale Sicherheitsimperativ, die Welt in KI anzuführen, bietet auch eine einmalige Chance im Jahrhundert, unsere Wirtschaft zu stärken.“

Die realen Gefahren von heute

Während die Debatte sich um hypothetische Superintelligenzen dreht, häufen sich die dokumentierten Schäden bereits existierender KI-Systeme:

  • Algorithmische Diskriminierung: Gesichtserkennungssysteme, die bei dunkelhäutigen Menschen versagen; Kreditvergabesysteme, die strukturelle Ungleichheit reproduzieren
  • Desinformation: KI-generierte Fake News, Deepfakes und politische Manipulation
  • Ausbeutung: Schlecht bezahlte Arbeiter:innen in Kenia und anderen Ländern des Globalen Südens, die traumatisierende Inhalte filtern müssen
  • Urheberrechtsverletzungen: Millionen Werke von Künstler:innen, Autor:innen und Fotograf:innen ohne Zustimmung oder Vergütung für das Training genutzt
  • Klimaschäden: Enorme Rechenzentren mit gigantischem Energie- und Wasserverbrauch

Timnit Gebru, die 2021 zusammen mit Margaret Mitchell von Google gefeuert wurde, nachdem sie ein kritisches Paper über Sprachmodelle veröffentlicht hatte, warnt seit Jahren vor genau diesen Problemen. Ihre Kritik am Effektiven Altruismus und dessen Einfluss auf die KI-Forschung ist vernichtend:

„Wir können eine technologische Zukunft schaffen, die uns dient. Wir müssen unsere Vorstellungskraft von der befreien, die uns bisher verkauft wurde: uns vor einer hypothetischen AGI-Apokalypse zu retten, die sich wenige Privilegierte ausgedacht haben, oder der immer wieder aus der Ferne winkenden Techno-Utopie, die uns Silicon-Valley-Eliten versprechen.“
– Timnit Gebru, KI-Forscherin

Alternative Ansätze: KI für Menschen

Dass es auch anders geht, zeigt das Beispiel von Te Hiku Media aus Neuseeland. Die Organisation entwickelte Sprachtechnologie zur Revitalisierung von Te Reo Māori, der Sprache der indigenen Māori. Dabei erstellten sie eine Datenlizenz „basierend auf dem Māori-Prinzip der Kaitiakitanga, oder Vormundschaft“, sodass alle aus Māori-Daten gewonnenen Erkenntnisse zuerst den Māori zugutekommen.

Dieser Ansatz steht in krassem Gegensatz zu Unternehmen wie StabilityAI, das Kunstwerke ohne Zustimmung oder Namensnennung der Künstler:innen abgreift, während es behauptet, „KI für die Menschen“ zu bauen.

Wer profitiert von der Angst?

Die Frage ist nicht, ob KI Risiken birgt – das tut sie zweifellos. Die Frage ist: Wer definiert, welche Risiken als prioritär gelten? Und wer profitiert von dieser Priorisierung?

Die Fokussierung auf hypothetische existenzielle Risiken einer noch nicht existierenden Superintelligenz erfüllt mehrere Funktionen zugleich:

  • Ablenkung: Sie lenkt von den realen, gegenwärtigen Schäden ab, für die Unternehmen heute zur Verantwortung gezogen werden könnten.
  • Selbsterhöhung: Sie positioniert die Tech-Elite als verantwortungsvolle Warner, die die Menschheit vor sich selbst schützen wollen.
  • Markteintrittsbarrieren: Die geforderten Regulierungen könnten kleinere Wettbewerber ausschließen und die Oligopolstellung der Großen zementieren.
  • Langfristdenken als Ausrede: Unter dem Banner des „Longtermism“ – der Fokussierung auf ferne Zukunftsgenerationen – werden heutige Ungerechtigkeiten relativiert.

Geoffrey Hinton, Sam Altman und viele andere mögen tatsächlich besorgt sein. Aber ihre Warnungen sind eingebettet in ein System, in dem dieselben Menschen, die vor der Gefahr warnen, Milliarden damit verdienen, genau diese Gefahr voranzutreiben. Und in dem diejenigen, die strengere Regulierung fordern, gleichzeitig Millionen ausgeben, um genau diese Regulierung in ihrem Sinne zu gestalten.

Der eigentliche Skandal ist nicht, dass KI gefährlich werden könnte. Der eigentliche Skandal ist, dass eine kleine Gruppe überwiegend weißer, männlicher Tech-Milliardäre und ihre akademischen Verbündeten die Definitionsmacht darüber haben, was als Gefahr gilt – und was nicht. Während sie vor dem digitalen Armageddon warnen, bauen sie ungestört an einer Zukunft, die vor allem ihren eigenen Interessen dient.

Das Problem ist nicht eine hypothetische Superintelligenz in der Zukunft. Das Problem sind die real existierenden Macht- und Profitstrukturen der Gegenwart.


Titelbild: Unsere Zeitung/KI-generiert

Artikel teilen/drucken:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.