Künstliche Intelligenz ist gefährlicher als die Klimakrise

[veröffentlicht im Falter 22/2021 vom 1.6.21; Langfassung]

Wird die Menschheit die nächsten hundert Jahre überleben? Ein Philosoph aus Oxford versucht diese Frage rational zu beantworten.

Der Weltuntergang fasziniert die Menschheit seit Jahrtausenden. Es fing mit apokalyptischen Mythen an und hört mit der Popularität von Katastrophenfilmen heute längst nicht auf. Seit dem 20. Jahrhundert warnt auch die Wissenschaft vor existenziellen Problemen: Vom Atomkrieg bis zur Klimakatastrophe. Aber wie wahrscheinlich ist der Untergang der Menschheit wirklich? Bis jetzt hatten alle Propheten des Menschheitsendes bekanntlich Unrecht.

Der Oxforder Philosoph und Philanthrop Toby Ord beschäftigt sich seit vielen Jahre mit diesem Thema und legt die Summe seiner Erkenntnisse nun als Buch vor: „The Precipe. Existential Risk and the Future of Humanity.“ Ord ist nicht nur ein Theoretiker, sondern auch politisch aktiv, indem er große internationale Organisationen wie die UN berät.

Ord setzt sich das schwierige Ziel, möglichst alle Risiken, die den Untergang der Menschheit innerhalb der nächsten hundert Jahre herbeiführen könnten, zu quantifizieren. Er erhebt zwar keinen Absolutheitsanspruch auf seine Zahlen, gibt sich aber große methodische Mühe bei deren Herleitung: Die Hälfte des Buches besteht aus Fußnoten und technisch-mathematischen Anmerkungen. Zusätzlich sieht er sich historische Beispiele für Untergangsszenarien an, vom Aussterben der Dinosaurier bis zur Kubakrise.
Zusätzlich will Ord uns durch ethische Überlegungen dafür sensibilisieren, welch enormes Potenzial verloren ginge, sollten wir Menschen die potenziell noch Milliarden Jahre dauernde Entwicklungsgeschichte unserer Spezies durch die eigene Dummheit schon jetzt vorzeitig beenden. Er führt uns sogar visionär vor Augen, wie sich die Menschheit in der ganzen Galaxis ausbreiten könnte.

Bei seiner Analyse stellt sich schnell heraus, dass die zahlreichen natürlichen Risiken für das Ende der Menschheit wesentlich geringer sind als die anthropogenen. Als Risiken zählt Ord nur jene Ereignisse, die entweder zu einem kompletten Aussterben der Menschen führen, oder eine zukünftige Zivilisation dauerhaft verhindern. Wobei er mit „Zivilisation“ die Möglichkeit zur freien Entfaltung des vollen Potenzials unserer Gattung meint. Eine orwellsche Dystopie zählt er also ebenfalls als existenzielles Risiko.

Vorher wendet sich der Philosoph jedoch der Natur zu und bewertet nach dem aktuellen Stand der Wissenschaft, welches natürliche Ereignis unsere Existenz mit welcher Wahrscheinlichkeit vernichten könnte. Asteroiden etwa sind deswegen kein großes Risiko mehr, weil wir 95% der potenziell lebensbedrohlichen Himmelskörper inzwischen kennen und beobachten (1:1.000.000). Ein Supervulkan-Ausbruch dagegen bedroht uns mit 1:10.000 und ist damit das größte natürliche Problem für das Überleben der Menschheit. So hoch ist deshalb auch das Gesamtrisiko für Naturkatastrophen. Demnach käme es statistisch einmal alle Million Jahre zu einem solchen tödlichen Ereignis, und tatsächlich beträgt die durchschnittliche Überlebensdauer einer Säugetierart etwa eine Million Jahre.

Das Kapitel über menschengemachte Untergangsszenarien enthält einige Überraschungen. Viele denken sicher zuerst an einen Atomkrieg, aber davon würde sich laut Orb die Menschheit langfristig wohl wieder erholen können: 1:1000 beträgt hier die Risikobewertung. Ebenso hoch ist die Chance, dass die Menschheit die Klimakatastrophe innerhalb der nächsten 100 Jahre nicht überlebt.
Der große Fortschritt der Biotechnologie zur Erstellung von Biowaffen bereitet Ord viel größere Sorgen. Zusätzlich werden die Techniken zur Herstellung von gefährlichen Bakterien und Viren weltweit immer zugänglicher. Die tödliche Seuche aus dem Kellerlabor ist also längst kein Science-Fiction-Szenario mehr. Dass die Menschheit daran im nächsten Jahrhundert zugrunde geht, bewertet Ord mit 1:30.

Die größte Bedrohung unserer Zivilisation sieht der Philosoph allerdings bei der Künstlichen Intelligenz. Auch Stephen Hawking oder Bill Gates warnen ja seit langem vor diesem dystopischen Szenario. Voraussetzung dafür wäre der Durchbruch hin zu einer allgemeinen künstlichen Intelligenz, dessen Wahrscheinlichkeit von Expertinnen und Experten inzwischen als hoch eingeschätzt wird. Gleichzeitig seien die menschlichen Werte und ethischen Regeln so komplex und widersprüchlich, dass es fast ausgeschlossen zu sein scheint, eine „ethische“ KI in unserem Sinne zu programmieren. Nimmt man noch hinzu, dass Künstliche Intelligenz derzeit primär durch positive Feedbackschleifen erreicht wird, sowie die historische Beobachtung, dass sich bis jetzt ausnahmslos immer jene Arten mit der höchsten Intelligenz durchsetzten, ergibt das eine explosive Mischung. Ord skizziert als Illustration sogar ein konkretes Szenario, wie eine künstliche „Super-Intelligenz“ die Weltherrschaft übernehmen könnte. Seine Wahrscheinlichkeitsbewertung dafür beträgt 1:10 und ist damit hundertfach riskanter als die Klimakatastrophe.

Über alle Risiken hinweg kommt Ord zu einer nicht sehr erfreulichen Einschätzung: Die Menschheit spielt derzeit russisches Roulette. Die Wahrscheinlichkeit für ihren Untergang im nächsten Jahrhundert beträgt 1:6.

Als angewandter Ethiker schlägt Ord abschließend konkrete politische Maßnahmen zum Gegensteuern vor. Er führt aus, wie wir mit vergleichsweise wenig Budget für Technologiesicherheit sowie durch das Stärken internationaler Institutionen die von ihm beschriebenen Risiken wirkungsvoll verringern könnte.

Toby Ord: The Precipice. Existential Risk and the Future of Humanity. (Hachette Books)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

code