Anzeige
Auslöschung der Menschheit

Experten sagen Weltuntergang voraus - es ist nicht der Klimawandel

  • Aktualisiert: 13.12.2023
  • 08:01 Uhr
  • Stefan Kendzia

Der Untergang der Welt - immer wieder ein dankbares Thema, das zur Diskussion anregt: Wann wird er kommen, wie und vor allem durch was? Wissenschaftler:innen haben nun in einer großen Studie den wahren "Schuldigen" für eine eventuelle Apokalypse ausgemacht - der Klimawandel soll es aber nicht sein.

Anzeige

Das Wichtigste in Kürze

  • Weltuntergang: In einer großen Studie soll der wahre Schuldige einer möglichen Apokalypse nicht der Klimawandel sein.

  • Während eines monatelangen Zusammentreffens von Wissenschaftlern, Experten und Prognostikern wurde herausgefunden, dass die KI die höchste potenzielle Gefahr mit sich bringt, die Menschheit zu vernichten.

  • Eine Auslöschung der Menschheit durch eine Naturkatastrophe sei wohl das geringste aller Risiken.

Was sind die größten Risiken, denen die Menschheit im nächsten Jahrhundert und darüber hinaus ausgesetzt sind? Nicht nur führende Wissenschaftler:innen warnen vor einer realen Gefahr, die das Leben auf der Erde vernichten könnte - auch Expert:innen, die Künstliche Intelligenz (mit)entwickeln sehen das so: Es ist die Künstliche Intelligenz, die eine potenzielle Gefahr mit sich bringt, die Menschheit zu vernichten.

Welche Gefahr ist die größte: KI, Biosicherheit, Klima oder Atomwaffen?

Von Juni bis Oktober 2022 hat ein erstes Turnier zwischen Wissenschaftler:innen, Berufsexpert:innen, Generalisten und Super-Forecastern oder auch Super-Prognostikern stattgefunden. Vorweg: Super-Forecaster sagen unterschiedlichste Ereignisse vorher und verfügen über eine erstaunliche Erfolgsbilanz bei der Genauigkeit ihrer Vorhersagen. Das Turnier mit dem Namen "Existential Risk Persuasion Tournament" (XPT) sollte potenzielle Bedrohungen für die Menschheit in diesem Jahrhundert untersuchen. Der Schwerpunkt dabei lag auf den Themen Künstlicher Intelligenz, Biosicherheit, Klima und Atomwaffen. Laut "Forecasting Research Institute" waren über 200 Experten und hoch qualifizierte Prognostiker sowohl einzeln als auch in Teams eingeladen, Prognosen und überzeugende Erklärungen zu der möglichen Gefahr eines Weltuntergangs zu erstellen.

Anzeige
Anzeige
:newstime

Ein Thema, das auch für Finanzmarktprofis von ganz besonderem Interesse sein muss. Denn schließlich ist eine Apokalypse für Kapitalmarkt-Profis das allergrößte Extrem-Risiko. Gleichzeitig dient sie als Referenzgröße für andere Gefahren. Und gegen diese gilt es, sich abzusichern. Laut "Welt" sollen beim Finanzdienstleister Bloomberg allein im letzten Monat 255 Geschichten gelistet gewesen sein, die sich allesamt mit einer möglichen Menschheits-Apokalypse beschäftigen. Ein Risiko ist dabei über alle Publikationen hinweg ins Zentrum gerückt: Die Künstliche Intelligenz, wenn sie außer Kontrolle gerate.

Selbst der "Godfather" der KI mahnt eindringlich

Nun sollten sich während des XPT Expert:innen wie Prognostiker:innen in einem Diskussionswettstreit gegenseitig von ihrer Risikoeinschätzung überzeugen. Unterm Strich sind sich alle einig gewesen, dass eine Auslöschung der Menschheit durch eine Naturkatastrophe das geringste aller Risiken berge - die höchste Gefahr hingehen ist eine nicht mehr kontrollierbare KI, die sich gegen Menschen richtet. Diejenigen, die hier das größte Risiko sehen, sind interessanterweise Fachleute auf dem Gebiet der Künstlichen Intelligenz selbst. Bei zwei Prozent soll demnach das Risiko gemäß dieser Fachleute liegen. Auch der sogenannte "Godfather" der KI, Geoffrey Hinton, mahnte in der "New York Times", dass die Entwicklungen der KI "ernste Risiken für die Gesellschaft und für die Menschheit" bedeuten können. Laut der "Süddeutschen Zeitung" sieht Hinton die größte Gefahr im Missbrauch der Technologie durch skrupellose Machtmenschen, wie etwa den russischen Präsidenten Putin. "Glauben Sie keine Sekunde, dass Putin nicht hyperintelligente Roboter bauen lassen würde, mit dem Ziel, Ukrainer zu töten. Er würde nicht zögern."

Deutlich geringer schätzen Super-Forecaster die Gefahr durch einen KI verursachten Weltuntergang ein. Interessant: Der Begriff Super-Forecaster geht auf den Wissenschaftler Philip E. Tetlock zurück, der sich darauf spezialisiert hat, Vorhersagen zu erforschen. Dabei habe er herausgefunden, dass es Menschen gibt, die eine unglaubliche Treffsicherheit haben bei Vorhersagen. Diese unterscheiden sich sogar oft diametral von Experten-Ergebnissen. Diese Super-Prognostiker schätzten grundsätzlich die Gefahren für eine Apokalypse durch Extremszenarien wie Pandemien oder einen Atomkrieg als deutlich geringer als die Experten ein. 

Anzeige

Höchste Gefahr geht von Künstlicher Intelligenz aus

Trotzdem - auch wenn sich während der XPT nicht alle einig waren - die von allen am höchsten eingestufte Gefahr eines Weltuntergangs soll von Künstlicher Intelligenz ausgehen. Auch wenn die Experten und Super-Forecaster beim KI-Risiko am weitesten auseinanderlagen (in Prozentpunkten) und beim Atomkriegsrisiko am meisten Ähnlichkeit hatten.

Bezogen auf die Entwicklung für den Finanzmarkt lässt sich generell sagen, dass es eine hundertprozentige Absicherung nicht geben kann. Allerdings kann die Beobachtung von Neuerungen wie der KI auch dazu beitragen, die Gefahren in den Griff zu bekommen, sie schon im Vorfeld zu minimieren oder im besten Fall sogar zu eliminieren. Zusätzlich, so "Welt", könnten sich daraus auch völlig neue Investmentchancen entwickeln.

Mehr zum Thema
Marradi - charming picturesque village in Tuscany, Italy. Panoramic view with bridge and river
News

Gemeinde Marradi

Toskana: Erdbeben nahe Florenz schreckt Menschen auf

Bürger:innen seien in den frühen Morgenstunden panisch auf die Straßen gerannt, als ein Erdbeben die Toskana erschütterte. Bisher gibt es keine Berichte über Verletzte oder Schäden an Gebäuden.

  • 19.09.2023
  • 09:13 Uhr
Ähnliche Inhalte
Es wird eng im Himmel - Weltraumschrott belastet unser All.
News

Wissenschaftler fordern: Der Weltraumschrott muss weg

  • 13.03.2023
  • 11:39 Uhr

© 2024 Seven.One Entertainment Group