Werbung
Bringen Klimawandel und KI den Weltuntergang?
Endzeit-Stimmung. Seit es Menschen gibt, fürchten sie sich vor dem Weltuntergang. Aktuell ist das Angebot an Bedrohungen besonders gross. Es reicht von Klimawandel über Atomkrieg bis zu künstlicher Intelligenz. Darüber schreiben der amerikanische KI-Experte James Barrat und der australische Klima-Analyst David Spratt.
| 
 | Der Artikel stammt aus der Feder der Pragmaticus-Redaktion. Das Magazin mit Sitz im liechtensteinischen Schaan widmet sich den grossen Fragen unserer Zeit. Die Antworten kommen dabei direkt von namhaften Experten, die unverfälscht zu Wort kommen. STREETLIFE publiziert im Rahmen einer Kooperation regelmässig Pragmaticus-Artikel. | 
von James Barrat
Angenommen, Sie sollen in ein Flugzeug steigen und erfahren, dass die Hälfte der Ingenieure, die den Jet entworfen haben, die Wahrscheinlichkeit eines Absturzes bei zehn Prozent sehen. Ausserdem sind sich die Techniker einig, dass das Flugzeug den «Erklärbarkeitstest» nicht besteht; die Maschine ist eine «Black Box», deren Funktionsweise niemand versteht oder gar erklären kann. Und dann ist da noch das Problem der Kontrolle: Je länger das Flugzeug in der Luft bleibt, desto mehr neigt es zu unvorhersehbarem, unkontrollierbarem Verhalten.
Das sind schon mal keine guten Voraussetzungen für einen entspannten Flug. Zu guter Letzt erfahren Sie noch, dass jeder der Ingenieure ein langes Vorstrafenregister hat – zum Beispiel wegen der Verbreitung von Lügen vor dem US-Kongress, räuberischer Geschäftspraktiken oder der Veröffentlichung von Fake News.
Mensch versus Superintelligenz
Würden Sie an Bord dieses Flugzeugs gehen? Nein? Dann heisst es jetzt ganz stark sein: Sie sitzen schon drin. Wir sprechen nämlich nicht von Flugzeugen, sondern von leistungsstarker künstlicher Intelligenz, die Unternehmen wie OpenAI, Google, Microsoft und Meta auf den Markt bringen. Die Virtuosität solcher Programme wird unser Leben und unsere Arbeit erheblich erleichtern – aber zugleich unsere Privatsphäre, unsere Jobs und womöglich auch unser Leben gefährden.
Google-Chef Sundar Pichai behauptet, die generative KI habe eine technologische und kulturelle Revolution ausgelöst, die tiefgreifender sei als die Entwicklung von Elektrizität oder Feuer. Gegner der KI befürchten, sie werde uns bis 2030 rund 300 Millionen Arbeitsplätze kosten. Hingerissen und fasziniert sind wir dennoch von den neuen Möglichkeiten. ChatGPT – ein sogenanntes Large Language Model (LLM), dessen Sprachgewandtheit geradezu magisch ist – hatte nur fünf Tage nach seinem Start im November 2022 bereits eine Million Nutzer. Facebook brauchte für die gleiche Zahl einst etwa zwei Jahre, bei YouTube waren es eineinhalb Jahre.
Untergangspotential: Atomkrieg
Wie wahrscheinlich ist ein Atomkrieg? 2/5
Wladimir Putin droht gerne mit einem Atomschlag, der Iran ist kurz vor der Herstellung eigener Bomben. Und im Kalten Krieg wäre wegen eines Systemfehlers einmal fast ein Atomschlag durchgeführt worden.
Wie apokalyptisch wird das? 3/5
Kommt drauf an, wo man wohnt. Je weiter weg von Staaten, die in einen Atomkrieg involviert sein könnten, desto besser. Chile wäre eine Option.
Können wir etwas dagegen tun? 2/5
Nicht wirklich. Unilateral Atomwaffen abzurüsten, während andere noch welche haben, wäre mit Sicherheit keine gute Strategie.
Vor zehn Jahren schrieb ich ein Buch mit dem Titel «Our Final Invention» («Unsere letzte Erfindung»). Wenn ich darin blättere, stelle ich fest, dass sich fast jedes Wort auf das Dilemma bezieht, in dem wir uns heute befinden. Das ist eine schlechte Nachricht, denn «Our Final Invention» war als Warnung gedacht. Und selbst ich dachte nicht, dass es so schnell gehen würde. Was ich vorausgesehen habe, ist die exponenzielle Beschleunigung der digitalen Technologien. Wir werden immer besser, bis wir einen Wendepunkt erreicht haben, der als «Intelligenzexplosion» bezeichnet wird.
Gemeint ist damit jener Moment, ab dem die künstliche Intelligenz ihre eigene Intelligenz verbessern kann, bis sie tausend- oder millionenfach grösser ist als jene der Menschen. Ich schrieb auch, dass wir eine geringe Chance haben werden, unsere erste und wahrscheinlich kurze Begegnung mit der Superintelligenz zu überleben, weil wir keine Ahnung haben, wie wir mit weitaus intelligenteren Wesen koexistieren können. Einer der «Paten» der KI, Geoffrey Hinton, sagte einmal: «Ich bin deshalb nicht so optimistisch, weil ich keine Beispiele kenne, dass intelligentere Dinge von weniger intelligenten Dingen kontrolliert wurden.»
Untergangspotential: Pandemie
Wie wahrscheinlich ist die nächste Pandemie? 5/5
Alle haben vor einer globalen Pandemie gewarnt, und niemand wollte es glauben – dann kam Covid-19. Es wird wieder passieren.
Wie apokalyptisch ist es? 2/5
Dass sich ein tödliches Virus auch in die entlegensten Gegenden der Welt verbreitet und wirklich alle Menschen erwischt, ist eher unwahrscheinlich.
Können wir etwas dagegen tun? 5/5
Definitiv.
Sind Menschen nur eine Phase?
Wie schlimm ist es? In einer Umfrage aus dem Jahr 2022 gab fast die Hälfte der befragten führenden Forscher auf dem Gebiet des maschinellen Lernens an, dass sie die Wahrscheinlichkeit, mit ihrer Arbeit zur Auslöschung der Menschheit beizutragen, auf mindestens eins zu zehn einschätzten. Laut einer auf dem Yale CEO Summit durchgeführten Umfrage glauben 42 Prozent der Firmenchefs, dass KI das Potenzial habe, die Menschheit innerhalb der nächsten fünf bis zehn Jahre zu vernichten. Kürzlich haben 1100 KI-Experten und tausende andere einen offenen Brief des Future of Life Institute unterzeichnet, in dem ein sechsmonatiges Moratorium für die Ausbildung grosser KI-Systeme gefordert wird, die leistungsfähiger sind als die derzeit leistungsfähigsten. Die Risiken seien einfach zu hoch, heisst es in dem Brief. Es gibt zu viele Unbekannte.
Wie kann man rechtfertigen, jeden Tag zur Arbeit zu gehen, um Algorithmen zu entwickeln, die den Untergang des Planeten bedeuten könnten? Im Mai 2023 beschloss die KI-Koryphäe Geoffrey Hinton, dass er das nicht mehr kann. Er trat von seinem Posten bei Google zurück, um frei über die Gefahren der künstlichen Intelligenz sprechen zu können: «Es ist denkbar, dass die Menschheit nur eine vorübergehende
 Phase in der Evolution der Intelligenz ist», sagt er unter anderem.
Untergangspotential: Supervulkane
Wie wahrscheinlich ist der Ausbruch eines Supervulkans? 4/5
Es wird passieren. Das Problem ist nur, dass niemand weiss, wann.
Wie apokalyptisch ist so was? 1/5
Der Ausbruch eines Supervulkans könnte globale Folgen haben – kein Flugverkehr, keine Sonne für eine lange Zeit. Das Überleben der gesamten Menschheit steht aber eher nicht auf dem Spiel.
Können wir etwas dagegen tun? 3/5
Ja, wir können versuchen, den Ausbruch rechtzeitig zu erkennen und das Gebiet zu räumen. Wobei ein solches Gebiet leider so gross wie Deutschland sein könnte.
Das Flugzeug brennt
Timnit Gebru, eine KI-Ethikerin (ein Beruf, den es vor zehn Jahren noch nicht gab), wurde von Google gefeuert, weil sie darauf hingewiesen hatte, dass LLMs möglicherweise Stereotype und Vorurteile verbreiten würden. Gebrus Nachfolger wurde ebenfalls entlassen. Vermutlich mag Google Ethiker nur, solange sie ihre Arbeit nicht tun.
Gebru hält das existenzielle Risiko für die Menschheit für einen futuristischen Nebenschauplatz, verglichen mit den Problemen, die generative KI jetzt schon mit sich bringt: Im Mai 2023 stellte etwa ein von KI geschaffenes Bild eine Explosion im Pentagon dar. Es wirkte so echt, dass die Aktienkurse kurzzeitig einbrachen. Russland postete ein Video, in dem der ukrainische Präsident Selenskyi kapituliert. Deep Fakes könnten einen Atomkrieg auslösen, indem sie überzeugend einen nuklearen Angriff simulieren.
Der vom Stanford Institute for Human-Centered Artificial Intelligence 2023 veröffentlichte «AI Index»-Report ergab, dass 36 Prozent der KI-Forscher glauben, generative KI könne zu einer nuklearen Katastrophe führen. Wir dürfen uns deshalb nicht den Luxus leisten, kurz- und langfristige Probleme nacheinander zu lösen, sondern müssen alle gleichzeitig angehen. Um auf unsere Analogie zurückzukommen: Wenn Ihr
 Flugzeug brennt, können Sie die Tatsache nicht ignorieren, dass es auf einen Berg zufliegt.
Untergangspotential: Künstliche Intelligenz
Wie wahrscheinlich ist die KI-Machtübernahme? 2/5
Kommt drauf an, wen man fragt. Für die einen ist das Potenzial von KI, die Menschheit auszurotten, ein besonders dummer Medienhype, andere sehen darin ein völlig unterschätztes Bedrohungsszenario.
Wie apokalyptisch ist sie? 3/5
Sehr. Zwei Szenarien sind denkbar: 1. Eine höher entwickelte Intelligenz will uns ausrotten, und wir haben ungefähr dieselben Chancen wie ein Wurm, auf den wir steigen. 2. Eine KI wird falsch programmiert und verbraucht bei der Erfüllung ihrer Aufgaben alle Ressourcen der Erde.
Können wir etwas dagegen tun? 2/5
Klar! Wir können die Forschung an KI einstellen. Weil eine hoch entwickelte KI aber auch viele unserer Probleme lösen könnte, wird das wahrscheinlich nicht passieren.
Klimawandel
von David Spratt
Schon das Tempo der Klimaveränderung im Jahr 2023 schockierte die Wissenschaft: «Überraschend. Verblüffend. Erschütternd. Unerhört. Beunruhigend. Befremdlich. Schockierend. Unglaublich», sagte etwa der Klimatologe Ed Hawkins, als der September den bisherigen Monatsrekord um enorme 0,5 Grad Celsius übertroffen hatte. 2023 war das erste Jahr, in dem es 1,5 Grad Celsius wärmer war als im Referenzzeitraum 1850 bis 1900. Und 2024 war es noch einmal wärmer.
Plausibles Worst-Case-Szenario
Um die Erderwärmung auf zwei Grad Celsius zu begrenzen, müssten die Emissionen zwischen 2020 und 2030 halbiert werden, doch stattdessen erreichten sowohl die Treibhausgasemissionen als auch der Kohleverbrauch neue Rekorde. Die grössten nationalen Produzenten fossiler Brennstoffe planen eine weitere Ausweitung der Produktion, und die aktuellen Pläne von Regierungen in der ganzen Welt werden wahrscheinlich dazu führen, dass die Emissionen im Jahr 2050 fast so hoch sein werden wie heute.
Die Welt steuert also auf eine Erwärmung um drei Grad Celsius zu; vielleicht sogar noch viel mehr, weil die derzeitigen Klimamodelle nicht alle verstärkenden Rückkopplungen auf Systemebene angemessen berücksichtigen. Die britische Denkfabrik Chatham House geht von einem «plausiblen Worst- Case-Szenario» von 3,5 Grad Celsius oder mehr aus.
Untergangspotential: Geburtenrückgang
Wie wahrscheinlich ist das Schrumpfen der Menschheit? 4/5
Natürlich haben Demografen nicht immer recht, der Trend ist aber eindeutig und dürfte nicht aufzuhalten sein.
Wie apokalyptisch ist sie? 1/5
Wir sprechen von einer dramatischen Reduktion der Weltbevölkerung, existieren wird die Spezies aber weiterhin.
Können wir etwas dagegen tun? 2/5
Na ja, Kinder kriegen. Das tun Menschen aber meistens aus anderen Motiven und nicht zum Zweck der Arterhaltung.
UN-Generalsekretär António Guterres sagt, jetzt sei «das Zeitalter des globalen Siedens» angebrochen. «Wenn wir so weitermachen wie bisher, kann ich mir nicht vorstellen, dass diese Zivilisation bis zum Ende des Jahrhunderts überlebt», meint der Klimatologe Tim Lenton. Wissenschaftler der University of New South Wales warnen, dass «bei einem Gleichgewichtsklima unter den derzeitigen Kohlendioxidkonzentrationen der Meeresspiegel um 5 bis 25 Meter höher liegen würde». Laut Chatham House wird der weltweite Nahrungsmittelbedarf bis 2050 um 50 Prozent steigen, die Ernteerträge könnten jedoch um 30 Prozent sinken.
Existenzielles Krisenmanagement
Die Macht der fossilen Brennstoffindustrie ist furchterregend, wie auf der COP28 in Dubai deutlich wurde. Aber auch der Intergovernmental Panel on Climate Change (IPCC/«Weltklimarat») hat eine Rolle gespielt, indem er «politikrelevante» Wissenschaft präsentierte, die oft zurückhaltend war und sich auf die falschen Themen konzentrierte. Zum Beispiel lieferte der IPCC riesige Mengen von Information über das Leben auf einer um 1,5 bis 2 Grad wärmeren Welt, aber fast nichts über eine um 3 oder 4 Grad heissere Welt, auf die wir uns tatsächlich zubewegen.
Untergangspotential: Asteroiden und Supernova
Wie wahrscheinlich ist die Supernova? 5/5
Nichts in dieser Welt ist sicher, ausser Steuern und der Supernova. Und ein Asteroideneinschlag ist statistisch gesehen auch irgendwann zu erwarten.
Wie apokalyptisch ist das? 5/5
Apokalyptischer geht es nicht. Nach der Supernova ist nicht nur das Leben auf der Erde, sondern das ganze Sonnensystem Geschichte.
Können wir etwas dagegen tun? 2/5
Die Erde verlassen oder ihre Umlaufbahn von der Sonne wegbewegen. Beides nicht ganz simple Aufgaben, aber wir haben ja noch zwei Milliarden Jahre Zeit.
Im Angesicht des drohenden Zusammenbruchs braucht die Welt eine globale Mobilisierung – eine Notfallreaktion –, bei der die Emissionen möglichst schnell auf null gesenkt und weitere Massnahmen zum Kohlendioxidabbau gefördert werden. Ausserdem müssen wir Wege finden, den Planeten zu kühlen und lebenswichtige Systeme kurzfristig zu schützen, um irreversible Veränderungen auf Systemebene und das
 «Treibhaus»-Szenario zu vermeiden.
Dies erfordert eine mutige politische Führung, denn die Märkte haben immer wieder bewiesen, dass sie nicht in der Lage sind, die Risiken einzuschätzen und einzupreisen; mit existenziellen Bedrohungen können sie offenbar nicht umgehen. Die Herausforderung für politische Entscheidungsträger besteht nun darin, sich auf Disruptionen einzulassen und ein existenzielles Risikomanagement zu betreiben.
Untergangspotential: Klimawandel
Wie wahrscheinlich ist der Klimawandel? 5/5
Der ist schon da, allerdings hat er bislang noch keine apokalyptischen Ausmasse angenommen.
Wie apokalyptisch wird er? 2/5
Selbst bei den pessimistischen Szenarien wird es aller Voraussicht nach weiter Gegenden geben, in denen
 Menschen werden leben können.
Können wir etwas dagegen tun? 3/5
Ja und nein. Um den Klimawandel aufzuhalten, ist es bereits zu spät. Ihn eindämmen können wir auf jeden Fall. Wie wir das tun sollen – Verzicht oder technologische Innovation oder beides –, ist die grosse politische Frage unserer Zeit.
Werbung















