Skip to content

Existential Risk German

Published:
February 23, 2018
Author:
Revathi Kumar

Contents

Existenzielle Risiken


Click here to see this page in other languages:  English US_Flag Chinese    FrenchFrance_Flag Russian 


Ein existenzielles Risiko ist ein Risiko mit dem Potenzial, die gesamte Menschheit auszulöschen oder zumindest große Teile der globalen Bevölkerung zu töten, wonach den Überlebenden keine ausreichenden Mittel blieben, um die Gesellschaft nach heutigen Lebensstandards wiederaufzubauen.

Bis vor kurzem waren die meisten existenziellen Risiken (und die weniger extremen, bekannt als globale Katastrophenrisiken) natürlichen Ursprungs, zum Beispiel der Ausbruch von Supervulkanen und Asteroideneinschläge. Solche Ereignisse haben vor Millionen von Jahren Massensterben verursacht. Die technologischen Fortschritte des vergangenen Jahrhunderts haben uns jedoch neben großen Errungenschaften auch die Möglichkeiten für neue existenzielle Risiken eröffnet.

Der Atomkrieg war das erste von Menschen erschaffene globale Katastrophenrisiko. Ein nuklearer Weltkrieg könnte einen Großteil der menschlichen Bevölkerung auslöschen. Dank fortschreitender Forschung über atomare Bedrohungen fanden Wissenschaftler heraus, dass der folgende nukleare Winter sogar noch tödlicher werden könnte als der Krieg selbst. Die meisten Menschen auf der Erde könnten so umkommen.

Biotechnologien und Genetik wecken oft genauso viele Ängste wie Hoffnungen. Die Menschen sorgen sich um potenziell negative Auswirkungen von Klonen, Gen Splicing, Genantrieb, und anderen Fortschritten auf diesen Gebieten. Biotechnologie bietet unglaubliche Möglichkeiten Leben zu retten und zu verbessern, aber gleichzeitig erhöhen sich mit ihr existenzielle Risiken in Verbindung mit künstlich erzeugten Pandemien und dem Verlust genetischer Vielfalt.

Künstliche Intelligenz (KI, engl. artificial intelligence, AI) wurde lange als Science-Fiction abgetan, aber in den letzten Jahren wurden auf diesem Gebiet bemerkenswerte Fortschritte gemacht. Genau wie bei der Biotechnologie gibt es mit KI große Chancen, Leben zu verbessern. Aber wenn diese Technologie nicht sicher entwickelt wird, besteht die Möglichkeit, dass jemand absichtlich oder unabsichtlich ein KI-System erschafft, das die Menschheit vernichten könnte.

Klimawandel ist eine wachsende Sorge, die viele Menschen und Regierungen auf der ganzen Welt beschäftigt. Wenn die globale Durchschnittstemperatur steigt, könnten Dürren, Überflutungen, extreme Stürme und andere Wetterkatastrophen zur Norm werden. Die daraus entstehende Knappheit von Nahrung, Wasser und Lebensräumen könnte ökonomische Krisen und Kriege auslösen. Der Klimawandel selbst ist wahrscheinlich kein existenzielles Risiko, aber das aus ihm folgende Chaos könnte die Wahrscheinlichkeiten von Atomkriegen, Pandemien und anderen Katastrophen erhöhen.

In den Anfangsjahren der Eisenbahn, waren viele besorgt, dass der menschliche Körper keine Geschwindigkeiten über 50 km/h aushalten könne. Die Menschen zögerten, die ersten Telefone zu benutzen, aus Angst vor Stromschlägen oder weil diese Geräte Instrumente des Teufels sein könnten. Ähnliche düstere Befürchtungen gab es wegen Flugzeugen, Herztransplantationen und dem vermeintlichen Millennium-Bug Y2K, um nur einige Angstmacher zu nennen. Wir hoffen, dass sich die Sorgen über manche der hier genannten Technologien als ähnlich unbegründet herausstellen werden, allerdings können wir dies nur durch Aufklärung, Forschung und Handeln sicherstellen. Wir Menschen sollten nicht als passive Beobachter fragen, was in der Zukunft passieren wird; wir haben selber die Macht, unser eigenes Schicksal zu bestimmen.

This content was first published at futureoflife.org on February 23, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram