KI wird uns alle umbringen! Julian Müller über den Effektiven Altruismus, Longtermism und die intellektuellen Hintergründe der aktuellen Aufregung.
Die Philosophie des Effektiven Altruismus (kurz: EA) zeichnet sich durch die Bestrebung aus, so viel Gutes wie möglich zu bewirken. Der EA schlägt seine Wurzeln bereits in den frühen Werken Peter Singers[1], konnte aber erst mit dem Aufkommen empirischer Evaluationsverfahren von Hilfsprojekten durch die Experimentelle Ökonomie[2] an Gestalt gewinnen. Dabei werden einzelne Maßnahmen bezüglich ihres Wirkgrades und ihrer Installationskosten in einer Art „Wohltätigkeits-Ranking“ miteinander verglichen. Nur die (kosten-)effektivsten Programme in den wirkungsvollsten Bereichen sollten unterstützt werden.
In den vergangenen Jahren hat sich hier allerdings ein bedenkenswerter Umbruch vollzogen. Lag der Fokus ursprünglich auf einer Bekämpfung extremer Armut sowie deren Folgen, so richtet sich das Augenmerk neuerdings auf eine Erforschung und Prävention sogenannter „existenzieller Risiken“.[3] Unter einem solchen hat man die Möglichkeit und Eintrittswahrscheinlichkeit einer zugehörigen existenziellen Katastrophe[4] zu verstehen, die entweder die gesamte Menschheit auslöscht oder aber eine drastische und irreversible Beschneidung des Potenzials ihrer zukünftigen Entwicklung bewirkt und uns sozusagen „in die Steinzeit“ zurückkatapultiert.[5]
Longtermism: Einfluss des Heute auf unsere langfristige Zukunft
Ausschlaggebend für den angedeuteten Shift ist der an Bedeutung gewinnende longtermism.[6] Dieses Konzept steht für die (moralphilosophische) Sichtweise, dass die entscheidende Determinante für eine angemessene ethische Beurteilung unserer Handlungen in deren Einfluss auf die langfristige Zukunft liegt. In etwas grober Vereinfachung lassen sich hier zwei miteinander verbundene Größen benennen: das immense, in Aussicht gestellte qualitative sowie quantitative Potenzial intelligenten Lebens irdischen Ursprungs. Die Wortwahl erfolgt an dieser Stelle bewusst, denn die meisten Denker:innen, die sich im Fahrwasser des longtermism tummeln, erweisen sich als Transhumanist:innen.
Hinsichtlich der qualitativen Dimension wird von einer ausgreifenden Überschreitung biophysikalischer Grenzen geträumt.[7] Mittels diverser Formen eines Enhancement´s sollen Krankheiten geheilt, Alterungsprozesse gestoppt und umgekehrt, Sinneswahrnehmungen sowie kognitive Leistungen erweitert und gänzlich neue Formen der Welt- und Selbstwahrnehmung erschlossen werden.[8]
Biotechnologisch „enhanced“ und ins Weltall entgrenzt?
In quantitativer Hinsicht wird der Menschheit ein kosmisches Erbe[9] in Aussicht gestellt. Kosmisch, weil durch eine Überschreitung der planetaren Grenzen, im Sinne einer Besiedelung des Weltalls, fantastische Erbfolgen erzeugt werden sollen. Durch Erschließung extraterrestrischer Bereiche sollen mitunter zusätzliche 1058 (!) Entitäten intelligenten Lebens neuen Lebensraum finden.[10]
Was vielen als ein Sci-Fi-Szenario erscheinen dürfte, wird im Umkreis des longtermism als erwartbare Entwicklung gehandelt. Aus der Zukunft als Ungewissheit[11] wird hier unter der Hand ein geschichtsphilosophisches Fortschrittsnarrativ par excellence, über das wohl selbst Hegel staunen würde. Von der Industrialisierung und Technisierung der Moderne (These) schlägt sich ein Bogen über die von multiplen Krisen geschüttelte Gegenwart, in der die Menschheit sich zusehends am Abgrund[12] befindet (Antithese), zur hell erstrahlenden Zukunft einer Selbst-transzendenz (Synthese). In einer Art Flaschenhals-Hypothese[13] wird von einem gegenwärtig hochkritischen Wendepunkt ausgegangen, der, erst einmal überschritten, einen zivilisatorischen Durchbruch auf Dauer zu eröffnen vermag.
Kritische Gegenlektüre der Theologie/n
Von Seiten der Theologie/n müsste an einer Vielzahl an Stellen kritisch eingehakt werden. Die folgenden Punkte beschränken sich, in einer kritischen Gegenlektüre der anthropogenen Klimakatastrophe, auf die problematische Ausgestaltung eines Einsatzes für die Zukunft in Formation des longtermism.
1.) Im Umfeld des longtermism ist von einer „distanzierten Perspektive“ die Rede. Diese einzunehmen meint, dass einem Menschenleben ethisch nicht mehr oder weniger Gewicht beigemessen werden darf, nur weil sich dasselbe in geographischer oder zeitlicher Ferne, befindet.[14] Zentral ist Singers Gedankenexperiment vom Kleinkind im Teich, das man retten will, während andere Kinder in existenzieller Not für die eigene Handlungsmacht zu weit entfernt scheinen. Wenn Hilfe an emotionaler Betroffenheit hängt, dann gilt: aus den Augen, aus dem Sinn. Nicholas Beckstead dagegen wirbt bspw. in seiner Dissertationsschrift offen dafür, das Singer´sche Kind im Teich ertrinken zu lassen, wenn es sich bei diesem um ein solches aus dem sog. „globalen Süden“ handelt. Kinder aus diesem Weltteil tragen statistisch wenig zum wirtschaftlichen Wachstum bei und sind auch im Bereich bahnbrechender Erfindungen, relativ gesehen, unterrepräsentiert.[15] Beides aber braucht es, um die drohende Vernichtung durch eine Super-KI oder vergleichbares abzuwenden und um das Langzeitpotenzial der Menschheit abzuschöpfen. Wie (wörtlich) pervers diese Form des Einsatzes für eine Sicherung der Zukunft erscheint, wird bei einem Blick auf die Klimakatastrophe deutlich, unter der bereits jetzt überproportional eben jene Menschen des sog. „globalen Südens“ zu leiden und zu sterben haben, für die zu optieren sich anscheinend nicht lohnt.
Die Nähe und Distenz des Helfens
2.) Ausgerechnet die Klimakatastrophe wird im Umfeld des longtermism verharmlost. Wer die einschlägige Literatur heranzieht, wird bevorzugt über die Gefahren einer Super-KI aufgeklärt, die im Diskurs als Bedrohungsszenario Nummer eins aufgebaut (vielleicht besser: aufgebauscht?) wird.[16] Während mit dieser nämlich eine hollywoodreife radikale Auslöschung droht, scheinen die klimatischen Veränderungen anthropogenen Ursprungs ja „lediglich“ viele Millionen (oder Milliarden) Menschen das Leben zu kosten und ganze Ökosysteme über den Rand eines Kollapses zu befördern. Schlimm. Aber für den Rang eines existenziellen Risikos genügt dies bei weitem nicht. Phil Torres – einst selbst Vertreter des longtermism, mittlerweile einer von dessen schärfsten Krititer:innen – schreibt treffend: „Wenn man es aus einer kosmischen Perspektive betrachtet, wird der Klimawandel nicht mehr darstellen als einen kleinen Ausrutscher, und zwar auch dann, wenn er drei Viertel der Menschheit das Leben kostet. Es ist, als würde ein Neunzigjähriger auf den Moment zurückblicken, als er sich mit zwei den Zeh stieß.“[17] Die zynische Haltung, die bereits durchschien, begegnet an dieser Stelle wieder. Ergänzt wird sie um einen wenig überzeugenden Umgang mit unterschiedlichen Graden an wissenschaftlicher Evidenz. So besteht bezüglich der Klimakatastrophe und deren Folgen eine weitgehende wissenschaftliche Gewissheit, die man im Bereich KI-Risiken (und vergleichbaren Feldern) vermisst.
Was das Valley Denken nennt …
Als Klammer um die beiden genannten Kritikpunkte fungiert das Denken, welches im Silicon Valley vorherrscht.[18] So erweisen sich die Bestrebungen von Elon Musk, der nicht nur als ein finanzstarker Mäzen des Future of Humanity Institute auftritt[19], sondern mit SpaceX auch als Präventionsstrategie den Weltraum besiedeln möchte[20], als paradigmatisch für diesen Diskurs. Christian Stöcker hakt zurecht kritisch nach: „Kann es sein, dass die ultrareichen Finanziers der Longtermism-Idee daran vor allem eins mögen: dass sie eine gute Ausrede zu sein scheint, sich nicht mit dem Leid und den existenziellen Gefahren der Gegenwart (und den eigenen Verstrickungen und Komplizenschaften; J.B.M.) beschäftigen zu müssen? Sondern lieber mit den eigenen Hobbys? Schließlich geht es doch um ‚das Potenzial der Menschheit‘, nichts Geringeres?“[21]
Was das Ganze für eine Einschätzung des Umgangs mit der Klimakatastrophe bedeuten mag, lässt sich abschließend nur punktuell andeuten. Zunächst scheinen die angeführten Beispiele Wasser auf die Mühlen derer zu sein, die bei dem Ruf, dass „der“ Markt das regle und dass „man“ nur auf gutes Entrepreneurship vertrauen müsse, skeptisch aufblicken. So fraglich es ist, ob sich die Klimakatastrophe angesichts einer nicht angetasteten imperialen Lebensweise, die bis in die Kapillaren unseres Alltags eindringt, politisch angemessen adressieren lässt[22], so sicher scheint, dass man sich zumindest im Silicon Valley schon lange geistig von einer (gemeinsamen) Erde verabschiedet hat. Die Überschreitung der planetaren Grenzen steht an dieser Stelle jedenfalls vehement im Gegensatz zur Einhaltung der überstrapazierten planetary boundaries.
Vom Hobby Oxforder Intellektueller zu Problemen von Belang
Wie auch immer man zu den Aktionen der Letzten Generation steht[23]: Die Gefahr der Klimakatastrophe ist real und ihre Folgen kosten bereits im Hier und Heute (mehr noch im „Dort und Morgen“) zahlreiche Menschen ihr Leben. Wer sich da, wie bspw. Jörg Alt SJ an die Straße klebt, um aus seinem christlichen Glauben heraus Einspruch gegen eine Ordnung zu erheben, die tötet, beschäftigt sich nicht mit einem „eigenen Hobby“ und sinniert auch nicht, mit einer Oxforder Lehrstuhlstelle im Rücken abgesichert, über das „Potenzial der Menschheit“. Er:Sie kämpft schlicht und ergreifend in Solidarität für das Überleben derer, die andere ertrinken lassen würden. Im Gedankenexperiment sowie der Realität.
________________
Bild: TheDigitalArtist auf Pixabay
Julian Benjamin Müller, Doktorand bei Prof. Dr. Schüßler in Praktischer Theologie in Tübingen.
________________
[1] Zu denken ist diesbezüglich insbesondere an: Peter Singer: Famine, Affluence, and Morality, in: Philosophy & Public Affairs 3 (1972), S. 229–243.
[2] Die renommiertesten Vertreter:innen dieses entwicklungsökonomischen Ansatzes sind mit Esther Duflo, Abhijit V. Banerjee und Michael Kremer die Preisträger:innen des Alfred-Nobel Gedächtnispreises für Wirtschafswissenschaften 2019.
[3] Dieser Wandel spiegelt sich auch im Aufbau entsprechender Institutionen wider. So bereichern das Future of Humanity Institut, das Global Priorities Institute und die Forethought Foundation das „intellektuelle Zentrum“ des Centre for Effective Altruism in Oxford.
[4] Für die analytische Unterscheidung gilt: „An existential catastrophe is the destruction of humanityʾs longterm potential. An existential risk is a risk that threatens the destruction of humanityʾs longterm potential.“ Toby Ord: The Precipice. Existential risk and the future of humanity, London u.a. 2020, 37.
[5] Vgl. Nick Bostrom: Die Zukunft der Menschheit, in: Die Zukunft der Menschheit. Aufsätze, hg. von dems., Berlin 12018, 7-47., 23. Wirklich neu erscheint diese Definition jedoch nicht, sie findet sich inhaltlich bereits bei Hans Jonas. Vgl. Hans Jonas: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation, Frankfurt am Main 1984, 80.
[6] Als Standardwerk jüngeren Alters kann gelten: Vgl. William MacAskill: What We Owe the Future, New York 2022.
[7] Exemplarisch: Vgl. Nick Bostrom: Warum ich posthuman werden will, wenn ich groß bin., in: Die Zukunft der Menschheit. Aufsätze, hg. von dems., Berlin 12018, 143-187.
[8] Vgl. Ord: The Precipice, 22.
[9] Hinsichtlich der zugrundeliegenden Annahmen wird auf technikoptimistische Physiker wie bspw Michio Kaku Bezug genommen. Exemplarisch: Vgl. Michio Kaku: Die Physik der Zukunft. Unser Leben in 100 Jahren, Reinbek bei Hamburg 112021.
[10] Vgl. Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution, Berlin 42020, 146.
[11] Vgl. Karl Rahner: Die Zukunft bleibt dunkel, in: Karl-Rahner: Sämtliche Werke. Band 23., hg. von Karl-Rahner Stiftung unter Leitung von Lehmann, Karl, Johann Baptist Metz, Albert Raffelt, Herbert Vorgrimler und Andreas R. Batlogg, Freiburg im Breisgau 2006, 154-155.
[12] Vgl. Ord: The Precipice.
[13] Vgl. Phil Torres: Morality, foresight, and human flourishing. An introduction to existential risks, Durham, North Carolina 2017, 173-175.
[14] Vgl. Andrew Leigh: What’s the worst that could happen? Existential risk and extreme politics, Cambridge, Massachusetts / London, England 2021, 7-8.
[15] Vgl. Nicholas Beckstead: On the overwhelming importance of shaping the far future 2013, 11. Die Dissertation ist als open access frei zugänglich.
[16] Vgl. Bostrom: Superintelligenz.
[17] Vgl. Phil Torres: Why longtermism is the world’s most dangerous secular credo, in: Aeon Magazine (2021-00-19). Übersetzung: J.B.M.
[18] Vgl. Adrian Daub: Was das Valley denken nennt. Über die Ideologie der Techbranche, Berlin 32021.
[19] Vgl. Future of Humanity Institute: Elon Musk funds Oxford and Cambride University research on safe and beneficial artificial intelligence. https://www.fhi.ox.ac.uk/elon-musk-funds-oxford-and-cambridge-university-research-on-safe-and-beneficial-artificial-intelligence/. 05.06.2023.
[20] Vgl. Michio Kaku: Abschied von der Erde. Die Zukunft der Menschheit, Reinbek bei Hamburg 1April 2019, 97.
[21] Christian Stöcker: Einflussreiche Philosophie im Silicon Valley: Ist »Longtermism« die Rettung – oder eine Gefahr?, in: DER SPIEGEL (07.11.2021).
[22] Vgl. Ulrich Brand und Markus Wissen: Sozial-ökologische Krise und imperiale Lebensweise. Zur Krise und Kontinuität kapitalistischer Naturverhältnisse, in: VielfachKrise. Im finanzmarktdominierten Kapitalismus, hg. von Alex Demirović, Julia Dück, Florian Becker und Pauline Bader, Hamburg 2011, S. 79–94.
[23] Exemplarisch: Vgl. Aimée van Baalen, Dieter Thomä, Svenja Flaßpöhler und Theresa Schouwink: Der Protest und das gute Leben, in: Philosophie Magazin (2023), S. 60–65.