In dem Buch „The Precipice“ beschreibt der Philosoph Toby Ord, warum es unser höchstes Ziel sein sollte, die Zukunft der Menschheit zu schützen. Diese Theorie nennt er Longtermism. Und er trifft eine Einschätzung, welche existentiellen Bedrohungen seiner Meinung nach am gefährlichsten werden könnten.

Toby Ord ist einer der Vordenker des Longtermismus: Der Idee, dass künftiges Leben den selben Wert hat wie heutiges Leben und das deshalb der Schutz der Zukunft höchste Priorität hat.
Toby Ord ist einer der Vordenker des Longtermismus: Der Idee, dass künftiges Leben den selben Wert hat wie heutiges Leben und das deshalb der Schutz der Zukunft höchste Priorität hat.
Quelle: https://theprecipice.com/

Was sind die Ideen aus dem Buch?

Wir Menschen haben schon eine lange Geschichte hinter uns. Jede Generation hat der nächsten etwas mitgegeben an Ideen, Technologie oder Kultur, so dass wir heute sind wo wir sind. Und so wird es weitergehen mit den kommenden Generationen, wenn wir uns nicht selber zerstören auf dem Weg.

Aber wenn wir nicht aussterben, dann steht die Menschheit erst ganz am Anfang ihrer Geschichte. Immerhin gibt es uns erst seit etwa 200.000 Jahren, die meisten Arten existieren deutlich länger. Wenn es uns aber gelingt, unsere Zukunft zu sichern, dann könnten wir als Menschheit auf der Erde existieren, bis in Milliarden von Jahren die Erde von der Sonne verschlungen wird.

In diesem Jahrhundert sind wir Menschen laut Ord erstmalig in der Situation, wo wir uns selber zerstören könnten, weil wir so viele und so technisch weit entwickelt sind. Unsere Macht hat mehr zugenommen als unsere Weisheit.

Das heißt, wir als Menschheit können direkt beeinflussen, ob und wie viele Menschen noch leben werden. Und ein zukünftiges Leben sollte nicht weniger wert sein als ein heutiges. Denn wenn wir menschliche Leben in der Zukunft abzinsen (also von Generation zu Generation einen Teil weniger Wert sein lassen), dann kommt man in die Situation, dass der der Fortbestand der Menschheit in tausenden Jahren keinen oder einen nur sehr kleinen Wert bekommt.

Die zentrale Idee des Buches ist daher, dass dieses zukünftige menschliche Leben den selben Wert hat wie heutiges Leben.

Eine weitere zentrale Idee ist das existentielle Risiko. Ord verwendet diesen Begriff für das Risiko, dass die Menschheit ausstirbt oder auf Dauer in einem Zustand verharrt, in dem ihr Potential nicht ausgenutzt werden kann. Dieses Risiko würde also die Nichtexistenz von Trilliarden von zukünftigen Leben bedeuten und stellt damit den schlimmstmöglichen Zustand dar.

Deswegen plädiert Ord für das Einrichten von Instanzen, die sich um die Reduktion des existentiellen Risikos bemühen. Diese Instanzen sollen dafür Sorge tragen, dass in Forschung und Gesellschaft das Bewusstsein für das Risiko existiert. und Maßnahmen zur Reduktion des Risikos sollen umgesetzt werden. Dann stünde uns als Menschheit das ganze Potential einer goldenen Zukunft offen.

Welche Risiken sieht Ord für die Zukunft der Menschheit?

In dem Buch geht Ord auf eine Reihe von existentiellen Risiken ein. Zu jedem Risiko gibt er eine grobe Einschätzung der Wahrscheinlichkeit an:

  • Natürliche Risiken: Hierzu zählen Meteroiteneinschläge, Supervulkane, Supernovas oder eine natürliche Pandemie – kleiner als 1 in 10.000
  • Atomkrieg: Existentielles Risiko vor allem durch den folgenden Nuklearen Winter – 1 in 1000
  • Klimawandel: Durch einen sich immer weiter beschleunigenden Temperaturanstieg oder ein Temperaturniveau, dass kein Leben mehr zulässt – 1 in 1000
  • Umweltzerstörung: Eine Reduktion von Ressourcen, die kein menschliches Leben mehr zulässt – 1 in 1000
  • Sonstige menschengemachte Risiken: Unter anderem durch Diktaturen, die die Menschheit dauerhaft daran hindern, ihr Potential zu entfalten, oder außer Kontrolle geratene Nanotechnologien – 1 in 50
  • Unerwartete Risiken: Wir haben wahrscheinlich noch gar nicht alle Möglichkeiten entdeckt, wie wir uns selber zerstören könnten – 1 in 30
  • Menschengemachte Pandemien: Letztendlich egal, ob aus Versehen oder bewusst freigesetzt – 1 in 30
  • Unkontrollierte künstliche Intelligenz: Die sich selber Macht über die Gesellschaft verschafft und sich den besten Weg ausdenkt, wie man uns Menschen auslöschen kann – 1 in 10

Gegen diese Risiken kann man direkt vorgehen, um die Eintrittswahrscheinlichkeit zu senken. Durch bestimmte Maßnahmen wie das Verhindern von Kriegen oder eine verbesserte Internationale Zusammenarbeit lassen sich auch mehrere existentielle Risiken gleichzeitig adressieren.

Ein Wort zum Klimawandel:

Manch einen Leser mag das sehr geringe existentielle Risiko überraschen, das laut Ord vom Klimawandel ausgeht. Es geht aber bei dem existentiellen Risiko eben um ein Szenario, in dem die Menschheit ausstirbt oder dauerhaft daran gehindert wird, ihr Potential zu entfalten. Das könnte bei Klimawandel nur der Fall sein, wenn sich die Temperatur auf der Erde so erhitzt, dass kein menschliches Leben mehr möglich ist. Aber das ist sehr unwahrscheinlich und so auch nicht Stand der Wissenschaft.

Ord betrachtet den Klimawandel nicht so sehr als existentielles Risiko, wie als einen Risikofaktor [1], also einen Faktor, der dazu beiträgt, dass andere existentielle Risiken wahrscheinlicher werden. Zum Beispiel könnte ein Atomkrieg durch eine klimawandelbedingte Ressourcenknappheit begünstigt werden.

Warum steht der Longtermism in der Kritik?

Um dieses Buchreview mit ein wenig Hintergrundinformationen anzureichern, bin ich auf die Suche nach Informationen zum Thema Longtermism gegangen. Und das Internet ist nicht gerade gnädig mit dieser Denkrichtung, die doch eigentlich edle Ziele wie den Fortbestand der Menschheit zu Ziel hat.

Im Großen und Ganzen lassen sich die Kritikpunkte folgendermaßen zusammenfassen [2]:

  1. Longtermism wird von allerlei reichen Menschen finanziert – mit dem Geld könnten sie doch bestimmt anders viel mehr in der Gegenwart helfen.
  2. Wenn man nur auf existentielle Risiken schaut, dann könnte man all die furchtbaren Katastrophen übersehen, die unendliches Leid verursachen, aber eben niemals das Potential der Menschheit gefärden.
  3. Wenn man die Milliarden zukünftigen Leben als gleichwertig wie aktuelle Leben stellt, dann könnte man daraus ableiten, dass es ok ist, Menschenleben heute aufzugeben, um damit potentiellen Menschen in der Zukunft ein Leben zu ermöglichen.

Der erste Punkt ist augenscheinlich Käse. Es ist doch schön, wenn sich reiche Menschen für den Fortbestand der Menschheit einsetzen. Immerhin könnten sie stattdessen irgendwelche anderen weniger sinnvollen Dinge damit zu tun.

Die beiden anderen Punkte kann ich auch nicht wirklich nachvollziehen. Die könnten schon zu einem Problem werden, aber nur, wenn die ganze Menschheit nur noch in existentiellen Risiken denken würde. Und das ist ja nicht das Ziel. Die Idee des Longtermism ist ja in Realität eher als eine Ergänzung zur bisherigen Ethik zu sehen.

Fazit

Die Hauptaussage, dass es das wichtigste Ziel der Menschheit sein muss, nicht auszusterben, finde ich recht trivial. Dennoch ist das Buch voller interessanter Ansätze, die ich so noch nie gesehen hatte:

  • Wenn wir nicht aussterben, wird es noch eine nahezu unendliche Anzahl an Menschen nach uns geben
  • Diese Menschen werden zwar auch Leid ertragen müssen, aber vor allem werden sie auch in der Summe unendliches Glück erfahren! Und dafür sollten wir uns einsetzen
  • Der Klimawandel wird höchstwahrscheinlich auch ungebremst kein existentielles Risiko darstellen. Nur die Welt sehr ungemütlich machen…

Eher nicht so hilfreich fand ich die Kapitel zu der Einschätzung Ords, welches existentielles Risiko wie schlimm ist. Ob wir jetzt in einem von zehntausend, oder einem von tausend Fällen in diesem Jahrhundert aussterben, das war mir etwas abstrakt. Insgesamt fand ich aber spannend, für wie gefährlich Ord künstliche Intelligenz hält.

Quellen:

[1] https://80000hours.org/podcast/episodes/toby-ord-the-precipice-existential-risk-future-humanity/#transcript

[2] https://aeon.co/essays/why-longtermism-is-the-worlds-most-dangerous-secular-credo

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert