Skip to content
Problembereich

Künstliche Intelligenz

Von Empfehlungsalgorithmen über Chatbots bis hin zu selbstfahrenden Autos – KI verändert unser Leben. Während die Technologie immer mehr an Bedeutung gewinnt, werden auch die damit verbundenen Risiken größer.

Visionen von Superintelligenz

Kreativ-Wettbewerb zu den Risiken der Superintelligenz
Ein Wettbewerb für die besten Bildungsmaterialien zum Thema Superintelligenz, die damit verbundenen Risiken und die Auswirkungen dieser Technologie auf unsere Welt.
5 Preise zu je 10.000 $
Besuchen Sie den Wettbewerb
Kostenlose Anmeldung | Anmeldung bis zum 31. August

Künstliche Intelligenz ist auf dem Vormarsch. Unternehmen entwickeln zunehmend vielseitig einsetzbare KI-Systeme, die viele verschiedene Aufgaben erfüllen können. Große Sprachmodelle (engl.: large language models, LLMs) können Gedichte verfassen, Kochrezepte erstellen und Computercode schreiben. Von einigen dieser Modelle gehen bereits heute große Gefahren aus, z. B. die Erosion demokratischer Prozesse, das Grassieren von Verzerrungen und Fehlinformationen sowie ein Wettrüsten im Bereich der autonomen Waffen. Aber noch schlimmeres zeichnet sich ab.

KI-Systeme werden nur noch leistungsfähiger werden. Unternehmen bemühen sich aktiv um die Schaffung einer “artificial general intelligence" (AGI, zu deutsch: allgemeine künstliche Intelligenz), die eine Vielzahl von Aufgaben genauso gut oder besser als der Mensch ausführen kann. Diese Unternehmen versprechen, dass diese Technologie ungeahnte Vorteile bringen wird, von der Krebsheilung bis zur Beseitigung der weltweiten Armut. Auf der anderen Seite glaubt mehr als die Hälfte der KI-Experten, dass AGI mit einer zehnprozentigen Wahrscheinlichkeit das Ende unserer Spezies bedeuten wird.

Diese Überzeugung hat nichts mit den bösen Robotern oder empfindungsfähigen Maschinen zu tun, die man aus der Science-Fiction kennt. Kurzfristig kann fortgeschrittene KI diejenigen, die Schaden anrichten wollen – zum Beispiel Bioterroristen – ermächtigen, indem sie es erlaubt, gewissenlos hochkomplexe Prozesse auszuführen. 

Längerfristig sollten wir uns nicht auf eine bestimmte Art von Schaden fixieren, denn die Gefahr geht von höherer Intelligenz selbst aus. Denken Sie daran, wie Menschen weniger intelligente Tiere dominieren, ohne sich auf eine bestimmte Waffe zu verlassen, oder wie ein KI-Schachprogramm menschliche Spieler besiegt, ohne sich auf einen bestimmten Zug zu verlassen.

Das Militär könnte die Kontrolle über ein hochleistungsfähiges System verlieren, das auf Zerstörung programmiert ist, was verheerende Folgen hätte. Ein hochentwickeltes KI-System mit der Aufgabe, Unternehmensgewinne zu maximieren, könnte drastische, unvorhersehbare Methoden anwenden. Selbst eine KI, die auf altruistisches Handeln ausgelegt ist, könnte dieses Ziel auf zerstörerische Weise erreichen. Wir können derzeit nicht wissen, wie sich KI-Systeme verhalten werden, weil niemand versteht, wie sie funktionieren. Nicht einmal ihre Schöpfer.

KI-Sicherheit ist inzwischen als Anliegen im Mainstream angekommen. Experten und die breite Öffentlichkeit sind sich einig in ihrer Besorgnis über die entstehenden Risiken und die dringende Notwendigkeit, diese zu bewältigen. Aber Besorgnis allein wird nicht ausreichen. Wir brauchen politische Maßnahmen, die dabei helfen sicherzustellen, dass KI-Entwicklung das Leben aller verbessert – und nicht bloß die Gewinne einiger Unternehmen steigert. Außerdem brauchen wir angemessene Governance, einschließlich einer robusten Regulierung und fähigen Institutionen, die diese transformative Technologie weg von extremen Risiken und hin zum Wohl der Menschheit lenken können.

Problembereiche

Andere Problembereiche

Erforschen Sie die anderen Problembereiche, die wir für besonders dringlich halten:

Atomwaffen

Fast achtzig Jahre nach ihrer Entwicklung sind die Risiken, die von Atomwaffen ausgehen, so hoch wie eh und je – und neue Forschungsergebnisse zeigen, dass die Auswirkungen eines Atomkriegs noch schlimmer wären als bisher angenommen.

Biotechnologie

Vom versehentlichen Freilassen künstlicher Erreger bis hin zu katastrophalen Folgen von gentechnischen Experimenten—die Gefahren der Biotechnologie sind zu groß, um blind voranzuschreiten.
Unsere Inhalte

Recent content on Artificial Intelligence

Beiträge

Unterbrechung der Deepfake-Lieferketten in Europa

Wir nutzen die strafrechtliche Haftung von Unternehmen im Rahmen der Richtlinie zur Gewalt gegen Frauen zum Schutz vor pornografischer Ausbeutung durch Deepfakes.
22 Februar, 2024

Realisierung erstrebenswerter Zukunftsvisionen - Neue FLI-Fördermöglichkeiten

Unser Zukunftsprogramm, das 2023 ins Leben gerufen wurde, zielt darauf ab, die Menschheit zur Realisierung der Möglichkeiten zu führen, die durch transformative Technologien möglich werden. Dieses Jahr, als [...]
14 Februar, 2024

Allmähliche Entmachtung der KI

Könnte eine KI-Übernahme graduell erfolgen?
1 Februar, 2024

Erforschung von sicheren Hardware-Lösungen für den sicheren Einsatz von KI

Diese Zusammenarbeit zwischen dem Future of Life Institute und Mithril Security erforscht hardwaregestützte KI-Governance-Tools für Transparenz, Rückverfolgbarkeit und Vertraulichkeit.
30 November, 2023

Schützen Sie das EU KI-Gesetz

Ein Angriff in letzter Sekunde auf die KI-Gesetzgebung der EU droht eine ihrer wichtigsten Funktionen zu gefährden: zu verhindern, dass die leistungsstärksten KI-Modelle der Gesellschaft weitreichenden Schaden zufügen.
22 November, 2023

Meilenweit auseinander: Ein Vergleich von europäischen KI-Gesetzesvorschlägen

Unsere Analyse zeigt, dass das jüngste Paper, das von Italien, Frankreich und Deutschland verfasst wurde, weitgehend keine Bestimmungen zu Basismodellen oder allgemeinen KI-Systemen enthält und viel weniger Kontrolle bietet als die bestehenden Alternativen.
21 November, 2023

Können wir uns auf den Informationsaustausch verlassen?

Wir haben die Nutzungsbedingungen der wichtigsten Entwickler von breit aufgestellten KI-Systemen untersucht und festgestellt, dass sie keine Absicherung hinsichtlich der Qualität, Zuverlässigkeit und Genauigkeit ihrer Produkte oder Dienstleistungen geben.
26 Oktober, 2023

Schriftliche Stellungnahme von Dr. Max Tegmark vor dem AI Insight Forum

Der Präsident des Future of Life Institute spricht auf dem AI Insight Forum über KI-Innovation und gibt fünf Empfehlungen für die US-Politik.
24 Oktober, 2023

Ressourcen

Katastrophale KI-Szenarien

Konkrete Beispiele dafür, wie KI-Entwicklung schief gehen kann
1 Februar, 2024

Einführende Ressourcen zu KI-Risiken

Warum sind Leute so besorgt über KI?
18 September, 2023

Globale KI-Politik

Wie Länder und Organisationen auf der ganzen Welt mit den Vorteilen und Risiken von künstlicher Intelligenz (KI) umgehen birgt große [...]
16 Dezember, 2022

Forschungslandschaft im Feld von AI-Alignment

Dieser Beitrag fasst eine Vielzahl von KI-Sicherheitsforschungsplänen zusammen, sowie andere Paper aus den Bereichen KI, maschinelles Lernen, Ethik, Governance, [...]
16 November, 2018

Positionspapiere

Wettbewerb in der generativen KI: Future of Life Institute's Feedback zur Konsultation der Europäischen Kommission

March 2024

Manifest für die Europäische Kommission 2024-2029

March 2024

FLI Antwort an OMB: Bitte um Kommentare zu KI-Governance, Innovation und Risikomanagement

February 2024

FLI Antwort an NIST: Bitte um Informationen über den Auftrag des NIST im Rahmen der AI Executive Order

February 2024

Offene Briefe

Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter künstlicher Intelligenz auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
31810

Große KI-Experimente stoppen: Ein offener Brief

Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu pausieren.
22 März, 2023
Unterzeichner
Geschlossen

Offener Brief zur vorausschauenden Regulierung von KI

Das Aufkommen künstlicher Intelligenz (KI) verspricht dramatische Veränderungen unserer wirtschaftlichen und sozialen Strukturen sowie des täglichen Lebens [...]
14 Juni, 2020
Unterzeichner
276

Offener Brief zu autonomen Waffen

Angesichts unserer Verpflichtung, keinen Schaden anzurichten, setzt sich die globale Gesundheitsgemeinschaft seit langem erfolgreich gegen menschenverachtende Waffen ein, und der Weltärztebund und der amerikanische Ärzteverband haben ein Verbot von nuklearen, chemischen und biologischen Waffen gefordert. Nun haben uns jüngste Fortschritte im Bereich der künstlichen Intelligenz an den Rand eines neuen Wettrüstens mit tödlichen autonomen Waffen gebracht.
13 März, 2019

Abonnieren Sie den Newsletter des Future of Life Institutes.

Schließen Sie sich 40.000+ anderen an, die regelmäßig über unsere Arbeit und unsere Problembereiche informiert werden.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram