Das Ende der Menschheit (I)
Seit es Menschen gibt, fürchten sie sich vor der Apokalypse. Aktuell ist das Angebot an Bedrohungen besonders groß, ob Atomkrieg, Künstliche Intelligenz oder Asteroideneinschläge.

Auf den Punkt gebracht
- Endzeitstimmung. Viele Menschen haben derzeit das Gefühl, in Endzeiten zu leben und fürchten um das Überleben der Menschheit
- Am Abgrund. Ein möglicher Grund, glaubt man den Philosophen Toby Ord: Zum ersten Mal in ihrer Geschichte – Stichtwort Atomwaffen – haben die Menschen das Potential, sich selbst auszurotten.
- Bedrohungsszenarien. Und die Gefahren sind mannigfaltig, von hausgemachten wie KI und Klimawandel über solche, auf die wir keinen Einfluss haben; etwa das Ende des Sonnensystems.
Rund 99 Prozent der Menschen waren tot, die Spezies schien dem Untergang geweiht. Übrig waren gerade einmal 1.300 reproduktionsfähige Individuen – auf dem gesamten Planeten: Fast 900.000 Jahre ist es her, dass der Homo erectus kurz vor dem Aussterben stand. Schuld trugen widrige Bedingungen; es war damals kalt auf der Erde, schwere Dürren häuften sich. Viele Tiere und Pflanzen, die den Menschen als Nahrung gedient hatten, waren verschwunden. Über 100.000 Jahre soll es gedauert haben, bis das Schlimmste überstanden war, bis sich die Population der Menschen erholt hatte. Um ein Haar hätten wir es nicht geschafft.
Mehr zur Menschheit
Alles, was danach folgte, wäre also beinahe nicht passiert. Das Rad wäre nicht erfunden worden und ChatGPT auch nicht. Die Menschen wären nicht auf den Mond geflogen, niemand hätte die Mona Lisa gemalt oder die Pyramiden erbaut. Und jetzt, nur ein paar erdgeschichtliche Augenblicke später, ist es angeblich schon wieder fast so weit – obwohl unsere Spezies mittlerweile mehr als acht Milliarden Exemplare zählt: Die Natur schickt Krankheiten, Vulkane brechen aus, die Sommer werden immer heißer. Dazu kommen all die anderen existenziellen Bedrohungen, die wir selbst erschaffen haben: künstliche Intelligenz, Atombomben und so weiter. Ach ja, nicht zu vergessen: Selbst wenn wir all das überleben, schluckt uns irgendwann die Sonne.
Unweigerlich Richtung Apokalypse?
Der Philosoph Toby Ord sagt, es sei kein Zufall, dass wir uns gerade jetzt mit so vielen existenziellen Bedrohungen herumschlagen müssen. Wobei „gerade jetzt“ großzügig ausgelegt werden muss, gemeint sind damit die vergangenen und kommenden Jahrzehnte. „The Precipice“, also „Der Abgrund“, heißt sein Buch über die gravierenden Gefahren, die der Menschheit derzeit zu schaffen machen. Ords These ist, dass die Menschheit mit ihrem aktuellen technologischen Wissen an einem Scheideweg stehe: Entweder vernichten wir uns in absehbarer Zeit selbst, oder wir lernen, unsere Erfindungen nicht gegen uns einzusetzen.
Möglicherweise liegt Ord aber einfach falsch – und die Menschheit lebt weiter wie bisher, und die Welt wird dank der vielen Fortschritte sogar ein wenig besser.
Mögliche Apokalypsen (I): Atomkrieg
von Seth Baum
Die genaue Zahl ist nicht bekannt, aber man kann davon ausgehen, dass es weltweit etwa 12.500 nukleare Sprengköpfe gibt. Die allermeisten lagern in den USA und in Russland. Der Kalte Krieg endete vor etwa 35 Jahren, aber die Gefahr eines Atomkriegs besteht immer noch, und sie wurde nach dem russischen Angriff auf die Ukraine im Jahr 2022 wieder real. Dass ein Atomkrieg verheerende Auswirkungen auf die beteiligten Kriegsparteien hätte, versteht sich von selbst. Weniger bekannt ist jedoch, dass die Folgen zu einer existenziellen Bedrohung für die gesamte Menschheit werden könnten.
Aber warum sollte ein Atomkrieg zwischen Russland und den Vereinigten Staaten Menschen auf den Philippinen, in Chile oder Uganda töten? Weil weltweite Auswirkungen zu befürchten wären. Das wohl größte Risiko ist der sogenannte nukleare Winter. Ein solcher würde eintreten, wenn die Explosionen der Atombomben so stark wären, dass ihre Asche in die Stratosphäre über den Wolken aufsteigt, statt mit dem Regen zurück auf die Erde zu fallen. Dann käme es zu einer globalen Verdunkelung. Auf der Erde gäbe es weniger Niederschlag, und der Rauch in der Stratosphäre würde die Ozonschicht beschädigen, was zu stärkerer ultravioletter Strahlung und somit zu mehr Krebserkrankungen führen könnte. Das Pflanzenwachstum würde beeinträchtigt werden, sodass Ernteausfälle und Hungersnöte zu befürchten wären.
Was passiert, wenn wir Pech haben
Natürlich sind Modelle über extreme Katastrophenereignisse mit einer großen Ungewissheit behaftet. Aber die Wahrscheinlichkeit eines Zusammenbruchs der Zivilisation nach einem nuklearen Winter ist ziemlich hoch. Die Schwere der Auswirkungen hängt natürlich vom Ausmaß der Kriegshandlungen ab. Die Bombardierung von Hiroshima und Nagasaki tötete viele Menschen, aber sie bedrohte nicht die globale Zivilisation.
Was müsste passieren, um das Aussterben der menschlichen Spezies zu verursachen? Wenn wir Pech haben, könnte ein Atomkrieg mit hundert Bomben oder noch weniger unser Ende bedeuten.
Abseits des nuklearen Winters gibt es noch einen zweiten Faktor, der Sorgen macht: die Auswirkungen eines Atomkriegs auf die Weltwirtschaft. Viele Produkte des täglichen Bedarfs sind vom Funktionieren globaler Lieferketten abhängig. Wir haben erlebt, dass vergleichsweise kleine Störungen – etwa das Feststecken eines Frachtschiffs im Suezkanal 2021 – relativ schwere Auswirkungen hatten.
Das Ende der Lieferkette
Und jetzt stellen wir uns einmal vor, ein Atomkrieg würde gleich mehrere Großstädte auf der ganzen Welt zerstören. Die Konsequenzen wären gravierend.
Natürlich gibt es Möglichkeiten, wie die Menschheit selbst im düsteren Szenario eines nuklearen Winters am Leben bleiben könnte.
Möglicherweise müssten wir uns im Ernstfall auf eine Kombination mehrerer Szenarien einstellen: Die landwirtschaftliche Produktion ginge zurück, es käme zu Problemen mit der Ernährungssicherheit, und obendrein wären Teile der weltweiten Lieferketten zerstört. Wie würde die Gesellschaft darauf reagieren? Würden sich alle von ihrer besten Seite zeigen und zusammenarbeiten? Oder gäbe es ein Hauen und Stechen um die noch verbliebenen Ressourcen? Niemand kann das vorhersagen.
Natürlich gibt es Möglichkeiten, wie die Menschheit selbst im düsteren Szenario eines nuklearen Winters am Leben bleiben könnte. Zum Beispiel lassen sich Lebensmittel auch bei verminderter Sonneneinstrahlung anbauen – etwa in geschlossenen Räumen mithilfe von Energie, deren Produktion nicht auf Sonnenlicht angewiesen ist. Und es gibt noch eine Fülle anderer Ideen. Die Frage ist nur, wie erfolgreich wir bei der Umsetzung in großem Maßstab wären.
Wie wahrscheinlich ist ein Atomkrieg? ⬤⬤◯◯◯
Wladimir Putin droht gerne mit einem Atomschlag, der Iran ist kurz vor der Herstellung eigener Bomben. Und im Kalten Krieg wäre wegen eines Systemfehlers einmal fast ein Atomschlag durchgeführt worden.
Wie apokalyptisch wird das? ⬤⬤⬤◯◯
Kommt drauf an, wo man wohnt. Je weiter weg von Staaten, die in einen Atomkrieg involviert sein könnten, desto besser. Chile wäre eine Option.
Können wir etwas dagegen tun? ⬤⬤◯◯◯
Nicht wirklich. Unilateral Atomwaffen abzurüsten, während andere noch welche haben, wäre mit Sicherheit keine gute Strategie.
Zahlen & Fakten
Als die Welt doch nicht unterging: Das Jahr 2000
Für den Juli oder August 1999 – ausgerechnet rund um die totale -Sonnenfinsternis in Mitteleuropa am 11. August – hatte Nostradamus vorausgesagt, dass ein „großer König des Schreckens“ vom Himmel kommen werde. Dessen Ankunft blieb ebenso aus wie ein totaler Zusammenbruch unserer Zivilisation durch den Y2K-Bug. -Damals war befürchtet worden, dass Computer den Wechsel von „99“ (für 1999) auf „00“ (für 2000) falsch interpretieren und Chaos aus-lösen würden. Die Szenarien reichten von Zusammenbrüchen im Finanzsektor bis hin zu globalen Stromausfällen.
Mögliche Apokalypsen (II): Künstliche Intelligenz
von James Barrat
Angenommen, Sie sollen in ein Flugzeug steigen und erfahren, dass die Hälfte der Ingenieure, die den Jet entworfen haben, die Wahrscheinlichkeit eines Absturzes bei zehn Prozent sehen. Außerdem sind sich die Techniker einig, dass das Flugzeug den „Erklärbarkeitstest“ nicht besteht; die Maschine ist eine „Black Box“, deren Funktionsweise niemand versteht oder gar erklären kann. Und dann ist da noch das Problem der Kontrolle: Je länger das Flugzeug in der Luft bleibt, desto mehr neigt es zu unvorhersehbarem, unkontrollierbarem Verhalten.
Das sind schon mal keine guten Voraussetzungen für einen entspannten Flug. Zu guter Letzt erfahren Sie noch, dass jeder der Ingenieure ein langes Vorstrafenregister hat – zum Beispiel wegen der Verbreitung von Lügen vor dem US-Kongress, räuberischer Geschäftspraktiken oder der Veröffentlichung von Fake News.
Mensch versus Superintelligenz
Würden Sie an Bord dieses Flugzeugs gehen? Nein? Dann heißt es jetzt ganz stark sein: Sie sitzen schon drin. Wir sprechen nämlich nicht von Flugzeugen, sondern von leistungsstarker künstlicher Intelligenz, die Unternehmen wie OpenAI, Google, Microsoft und Meta auf den Markt bringen. Die Virtuosität solcher Programme wird unser Leben und unsere Arbeit erheblich erleichtern – aber zugleich unsere Privatsphäre, unsere Jobs und womöglich auch unser Leben gefährden.
Google-Chef Sundar Pichai behauptet, die generative KI habe eine technologische und kulturelle Revolution ausgelöst, die tiefgreifender sei als die Entwicklung von Elektrizität oder Feuer. Gegner der KI befürchten, sie werde uns bis 2030 rund 300 Millionen Arbeitsplätze kosten. Hingerissen und fasziniert sind wir dennoch von den neuen Möglichkeiten. ChatGPT – ein sogenanntes Large Language Model (LLM), dessen Sprachgewandtheit geradezu magisch ist – hatte nur fünf Tage nach seinem Start im November 2022 bereits eine Million Nutzer. Facebook brauchte für die gleiche Zahl einst etwa zwei Jahre, bei YouTube waren es eineinhalb Jahre.
Vor zehn Jahren schrieb ich ein Buch mit dem Titel „Our Final Invention“ („Unsere letzte Erfindung“). Wenn ich darin blättere, stelle ich fest, dass sich fast jedes Wort auf das Dilemma bezieht, in dem wir uns heute befinden. Das ist eine schlechte Nachricht, denn „Our Final Invention“ war als Warnung gedacht. Und selbst ich dachte nicht, dass es so schnell gehen würde. Was ich vorausgesehen habe, ist die exponenzielle Beschleunigung der digitalen Technologien. Wir werden immer besser, bis wir einen Wendepunkt erreicht haben, der als „Intelligenzexplosion“ bezeichnet wird.
Sind Menschen nur eine Phase?
Gemeint ist damit jener Moment, ab dem die künstliche Intelligenz ihre eigene Intelligenz verbessern kann, bis sie tausend- oder millionenfach größer ist als jene der Menschen. Ich schrieb auch, dass wir eine geringe Chance haben werden, unsere erste und wahrscheinlich kurze Begegnung mit der Superintelligenz zu überleben, weil wir keine Ahnung haben, wie wir mit weitaus intelligenteren Wesen koexistieren können. Einer der „Paten“ der KI, Geoffrey Hinton, sagte einmal: „Ich bin deshalb nicht so optimistisch, weil ich keine Beispiele kenne, dass intelligentere Dinge von weniger intelligenten Dingen kontrolliert wurden.“
Wie schlimm ist es? In einer Umfrage aus dem Jahr 2022 gab fast die Hälfte der befragten führenden Forscher auf dem Gebiet des maschinellen Lernens an, dass sie die Wahrscheinlichkeit, mit ihrer Arbeit zur Auslöschung der Menschheit beizutragen, auf mindestens eins zu zehn einschätzten. Laut einer auf dem Yale CEO Summit durchgeführten Umfrage glauben 42 Prozent der Firmenchefs, dass KI das Potenzial habe, die Menschheit innerhalb der nächsten fünf bis zehn Jahre zu vernichten.
Wie kann man rechtfertigen, jeden Tag zur Arbeit zu gehen, um Algorithmen zu entwickeln, die den Untergang des Planeten bedeuten könnten?
Kürzlich haben 1.100 KI-Experten und tausende andere einen offenen Brief des Future of Life Institute unterzeichnet, in dem ein sechsmonatiges Moratorium für die Ausbildung großer KI-Systeme gefordert wird, die leistungsfähiger sind als die derzeit leistungsfähigsten. Die Risiken seien einfach zu hoch, heißt es in dem Brief. Es gibt zu viele Unbekannte.
Wie kann man rechtfertigen, jeden Tag zur Arbeit zu gehen, um Algorithmen zu entwickeln, die den Untergang des Planeten bedeuten könnten? Im Mai 2023 beschloss die KI-Koryphäe Geoffrey Hinton, dass er das nicht mehr kann. Er trat von seinem Posten bei Google zurück, um frei über die Gefahren der künstlichen Intelligenz sprechen zu können: „Es ist denkbar, dass die Menschheit nur eine vorübergehende Phase in der Evolution der Intelligenz ist“, sagt er unter anderem.
Das Flugzeug brennt
Timnit Gebru, eine KI-Ethikerin (ein Beruf, den es vor zehn Jahren noch nicht gab), wurde von Google gefeuert, weil sie darauf hingewiesen hatte, dass LLMs möglicherweise Stereotype und Vorurteile verbreiten würden. Gebrus Nachfolger wurde ebenfalls entlassen. Vermutlich mag Google Ethiker nur, solange sie ihre Arbeit nicht tun.
Gebru hält das existenzielle Risiko für die Menschheit für einen futuristischen Nebenschauplatz, verglichen mit den Problemen, die generative KI jetzt schon mit sich bringt: Im Mai 2023 stellte etwa ein von KI geschaffenes Bild eine Explosion im Pentagon dar. Es wirkte so echt, dass die Aktienkurse kurzzeitig einbrachen. Russland postete ein Video, in dem der ukrainische Präsident Selenskyi kapituliert. Deep Fakes könnten einen Atomkrieg auslösen, indem sie überzeugend einen nuklearen Angriff simulieren.
Der vom Stanford Institute for Human Centered Artificial Intelligence 2023 veröffentlichte „AI Index“-Report ergab, dass 36 Prozent der KI-Forscher glauben, generative KI könne zu einer nuklearen Katastrophe führen. Wir dürfen uns deshalb nicht den Luxus leisten, kurz- und langfristige Probleme nacheinander zu lösen, sondern müssen alle gleichzeitig angehen. Um auf unsere Analogie zurückzukommen: Wenn Ihr Flugzeug brennt, können Sie die Tatsache nicht ignorieren, dass es auf einen Berg zufliegt.
Wie wahrscheinlich ist die KI-Machtübernahme? ⬤⬤◯◯◯
Kommt drauf an, wen man fragt. Für die einen ist das Potenzial von KI, die Menschheit auszurotten, ein besonders dummer Medienhype, andere sehen darin ein völlig unterschätztes Bedrohungsszenario.
Wie apokalyptisch ist sie? ⬤⬤⬤◯◯
Sehr. Zwei Szenarien sind denkbar: 1. Eine höher entwickelte Intelligenz will uns ausrotten, und wir haben ungefähr dieselben Chancen wie ein Wurm, auf den wir steigen. 2. Eine KI wird falsch programmiert und verbraucht bei der Erfüllung ihrer Aufgaben alle Ressourcen der Erde.
Können wir etwas dagegen tun? ⬤⬤◯◯◯
Klar! Wir können die Forschung an KI einstellen. Weil eine hoch entwickelte KI aber auch viele unserer Probleme lösen könnte, wird das wahrscheinlich nicht passieren.
Mögliche Apokalypsen (III): Klimawandel
von David Spratt
Schon das Tempo der Klimaveränderung im Jahr 2023 schockierte die Wissenschaft: „Überraschend. Verblüffend. Erschütternd. Unerhört. Beunruhigend. Befremdlich. Schockierend. Unglaublich“, sagte etwa der Klimatologe Ed Hawkins, als der September den bisherigen Monatsrekord um enorme 0,5 Grad Celsius übertroffen hatte. 2023 war das erste Jahr, in dem es 1,5 Grad Celsius wärmer war als im Referenzzeitraum 1850 bis 1900. Und 2024 war es noch einmal wärmer.
Plausibles Worst-Case-Szenario
Um die Erderwärmung auf zwei Grad Celsius zu begrenzen, müssten die Emissionen zwischen 2020 und 2030 halbiert werden, doch stattdessen erreichten sowohl die Treibhausgasemissionen als auch der Kohleverbrauch neue Rekorde. Die größten nationalen Produzenten fossiler Brennstoffe planen eine weitere Ausweitung der Produktion, und die aktuellen Pläne von Regierungen in der ganzen Welt weltweit werden wahrscheinlich dazu führen, dass die Emissionen im Jahr 2050 fast so hoch sein werden wie heute.
UN-Generalsekretär António Guterres sagt, jetzt sei „das Zeitalter des globalen Siedens“ angebrochen.
Die Welt steuert also auf eine Erwärmung um drei Grad Celsius zu; vielleicht sogar noch viel mehr, weil die derzeitigen Klimamodelle nicht alle verstärkenden Rückkopplungen auf Systemebene angemessen berücksichtigen. Die britische Denkfabrik Chatham House geht von einem „plausiblen Worst-Case-Szenario“ von 3,5 Grad Celsius oder mehr aus.
UN-Generalsekretär António Guterres sagt, jetzt sei „das Zeitalter des globalen Siedens“ angebrochen. „Wenn wir so weitermachen wie bisher, kann ich mir nicht vorstellen, dass diese Zivilisation bis zum Ende des Jahrhunderts überlebt“, meint der Klimatologe Tim Lenton. Wissenschaftler der University of New South Wales warnen, dass „bei einem Gleichgewichtsklima unter den derzeitigen Kohlendioxidkonzentrationen der Meeresspiegel um 5 bis 25 Meter höher liegen würde“. Laut Chatham House wird der weltweite Nahrungsmittelbedarf bis 2050 um 50 Prozent steigen, die Ernteerträge könnten jedoch um 30 Prozent sinken.
Existenzielles Krisenmanagement
Die Macht der fossilen Brennstoffindustrie ist furchterregend, wie auf der COP28 in Dubai deutlich wurde. Aber auch der Intergovernmental Panel on Climate Change (IPCC/„Weltklimarat“) hat eine Rolle gespielt, indem er „politikrelevante“ Wissenschaft präsentierte, die oft zurückhaltend war und sich auf die falschen Themen konzentrierte. Zum Beispiel lieferte der IPCC riesige Mengen von Information über das Leben auf einer um 1,5 bis 2 Grad wärmeren Welt, aber fast nichts über eine um 3 oder 4 Grad heißere Welt, auf die wir uns tatsächlich zubewegen.
Im Angesicht des drohenden Zusammenbruchs braucht die Welt eine globale Mobilisierung – eine Notfallreaktion –, bei der die Emissionen möglichst schnell auf null gesenkt und weitere Maßnahmen zum Kohlendioxidabbau gefördert werden. Außerdem müssen wir Wege finden, den Planeten zu kühlen und lebenswichtige Systeme kurzfristig zu schützen, um irreversible Veränderungen auf Systemebene und das „Treibhaus“-Szenario zu vermeiden.
Dies erfordert eine mutige politische Führung, denn die Märkte haben immer wieder bewiesen, dass sie nicht in der Lage sind, die Risiken einzuschätzen und einzupreisen; mit existenziellen Bedrohungen können sie offenbar nicht umgehen. Die Herausforderung für politische Entscheidungsträger besteht nun darin, sich auf Disruptionen einzulassen und ein existenzielles Risikomanagement zu betreiben.
Wie wahrscheinlich ist der Klimawandel? ⬤⬤⬤⬤⬤
Der ist schon da, allerdings hat er bislang noch keine apokalyptischen Ausmaße angenommen.
Wie apokalyptisch wird er? ⬤◯◯◯◯
Selbst bei den pessimistischen Szenarien wird es aller Voraussicht nach weiter Gegenden geben, in denen Menschen werden leben können.
Können wir etwas dagegen tun? ⬤⬤⬤◯◯
Ja und nein. Um den Klimawandel aufzuhalten, ist es bereits zu spät. Ihn eindämmen können wir auf jeden Fall. Wie wir das tun sollen – Verzicht oder technologische Innovation oder beides –, ist die große politische Frage unserer Zeit.
Zahlen & Fakten
Als die Welt doch nicht unterging: Der Maya-Kalender
Der vielleicht bekannteste moderne Weltuntergangsmythos dreht sich um den Maya-Kalender. Die alte mesoamerikanische Zivilisation hinterließ einen Kalender, der einen Zeitraum von etwa 5.125 Jahren abdeckt und am 21. Dezember 2012 endet. Viele Menschen interpretierten dies als -Hinweis darauf, dass an diesem Tag das Ende der Welt bevorstehen würde. Apokalyptische Szenarien reichten von Planetenkollisionen bis zu Naturkatastrophen wie Erdbeben und Vulkanausbrüchen. Wissenschaftler wiesen zwar darauf hin, dass das Ende des -Kalenders lediglich einen Übergang in einen neuen Zyklus markieren sollte, aber die Erzählung vom Ende der Welt war für viele spannender. Der 21. Dezember endete dann ziemlich unspektakulär – und zwar mit dem Beginn des 22. Dezember.
Mögliche Apokalypsen (IV): Grey Goo
Von Allison Duettmann und Beatrice Erkers
Unter allen Angeboten, sich zu fürchten, ist das Konzept des „Grey Goo“ („Graue Schmiere“) wohl das merkwürdigste. Dieses hypothetische Szenario handelt von einem autonomen Nanoroboter, der nicht aufhört, sich selbst zu duplizieren. Wenn die Fortschritte in der Nanotechnologie in einem ähnlichen Tempo wie zuletzt weitergehen, ist ein solcher Roboter nicht gänzlich auszuschließen. Er könnte versehentlich entstehen oder von einem böswilligen Akteur erschaffen werden und außer Kontrolle geraten. Weil sich selbst replizierende Nanoroboter von der gleichen Materie ernähren können wie wir – und möglicherweise auch von menschlicher Materie –, wären sie letzten Endes mit der menschlichen Existenz unvereinbar. Die Welt würde von winzigen Nanorobotern bedeckt und aufgefressen – und sich dabei in „Grey Goo“ verwandeln.
Das Konzept des „Grey Goo“ hat seine Wurzeln in theoretischen Diskussionen über extreme Worst-Case-Szenarien im Zusammenhang mit Nanotechnologie. Öffentlich bekannt wurde es durch den berühmt gewordenen Artikel „Why the Future Doesn't Need Us“ von Bill Joyce aus dem Jahr 2000 in der Zeitschrift „Wired“. Joyces Darstellung machte aus einem gruseligen Gedankenexperiment eine scheinbar unmittelbar bevorstehende Bedrohung.
Wie Goethes Zauberlehrling
Das Grey-Goo-Szenario hat Ähnlichkeiten mit dem „Büroklammer-Maximierer“ in der Künstlichen Intelligenz. Dieses Horrorszenario handelt von einer KI, die mit der Herstellung von Büroklammern beauftragt ist, diese Aufgabe aber derartig übererfüllt, dass sie dabei alle Ressourcen der Erde aufbraucht. Letzten Endes erinnert all das an Goethes „Zauberlehrling“, der die Kontrolle über den Besen verliert, der für ihn das Haus reinigen soll. Es geht also um die Furcht vor Kontrollverlust über Dinge, die wir selbst erschaffen haben.
Nicht zuletzt hat Nanotechnologie auch das Potenzial, die Entwicklung völlig neuer biologischer oder chemischer Waffen erleichtern.
Sollten wir uns vor dem „Grey Goo“-Szenario fürchten? Trotz seiner dramatischen Details ist es vermutlich nicht die dringlichste Sorge im Zusammenhang mit Nanotechnologie. Es gibt größere Risiken. Zum Beispiel könnte Nanotechnologie die Verbreitung von waffenfähigen Technologien erleichtern. Einzelnen Akteuren könnte sie ermöglichen, komplexe Erzeugnisse wie automatische Feuerwaffen aus leicht verfügbaren Bestandteilen zusammenzusetzen. Nicht zuletzt hat Nanotechnologie auch das Potenzial, die Entwicklung völlig neuer biologischer oder chemischer Waffen erleichtern. Das wäre sehr schwer zu kontrollieren und wirft die Frage auf, ob es überhaupt möglich ist, die Entwicklung waffenfähiger Nanotechnologie zu überwachen, ohne einen dystopischen Überwachungsstaat zu schaffen.
Es gibt also gute Gründe, sich über die Entwicklung der Nanotechnologie Gedanken zu machen. Anstatt sich vor Gray Goo oder anderen Gruselgeschichten zu fürchten, sollten wir lieber die wirtschaftlichen Vorteile der Nanotechnologie nutzen und versuchen, uns gegen deren realistische Risiken zu schützen.
Wie wahrscheinlich ist es? ⬤◯◯◯◯
Nicht sehr. Das „Grey Goo“-Szenario ist ein rein theoretisches Gedankenexperiment. Wachsamkeit kann trotzdem nicht schaden.
Wie apokalyptisch ist es? ⬤⬤⬤⬤⬤
Absolut apokalyptisch. Wenn sich die Nanoroboter einmal vermehren und durch die Welt fressen, ist es bereits zu spät für alles Leben auf der Erde.
Können wir etwas dagegen tun? ⬤⬤⬤⬤◯
Auf jeden Fall. Wenn wir nicht wollen, dass Nanotechnologie zu einer Bedrohung wird, müssen wir jetzt darüber nachdenken, wie wir das verhindern können.
Lesen Sie hier Teil 2:
Das Ende der Menschheit (II)
Seit es Menschen gibt, fürchten sie sich vor der Apokalypse. Aktuell ist das Angebot an Bedrohungen besonders groß, ob Atomkrieg, Künstliche Intelligenz oder Asteroideneinschläge.