Zum Inhalt springen
Schwerpunktbereich

Künstliche Intelligenz

Von Empfehlungsalgorithmen über Chatbots bis hin zu selbstfahrenden Autos – KI verändert unser Leben. Während die Technologie immer mehr an Bedeutung gewinnt, werden auch die damit verbundenen Risiken größer.

Künstliche Intelligenz ist auf dem Vormarsch. Unternehmen entwickeln zunehmend vielseitig einsetzbare KI-Systeme, die viele verschiedene Aufgaben erfüllen können. Große Sprachmodelle (engl.: large language models, LLMs) können Gedichte verfassen, Kochrezepte erstellen und Computercode schreiben. Von einigen dieser Modelle gehen bereits heute große Gefahren aus, z. B. die Erosion demokratischer Prozesse, das Grassieren von Verzerrungen und Fehlinformationen sowie ein Wettrüsten im Bereich der autonomen Waffen. Aber noch Schlimmeres zeichnet sich ab.

KI-Systeme werden nur noch leistungsfähiger werden. Unternehmen bemühen sich aktiv um die Schaffung einer "artificial general intelligence" (AGI, zu deutsch: allgemeine künstliche Intelligenz), die eine Vielzahl von Aufgaben genauso gut oder besser als der Mensch ausführen kann. Diese Unternehmen versprechen, dass diese Technologie ungeahnte Vorteile bringen wird, von der Krebsheilung bis zur Beseitigung der weltweiten Armut. Auf der anderen Seite glaubt mehr als die Hälfte der KI-Experten, dass AGI mit einer zehnprozentigen Wahrscheinlichkeit das Ende unserer Spezies bedeuten wird.

Diese Überzeugung hat nichts mit den bösen Robotern oder empfindungsfähigen Maschinen zu tun, die man aus der Science-Fiction kennt. Kurzfristig kann fortgeschrittene KI diejenigen, die Schaden anrichten wollen – zum Beispiel Bioterroristen – ermächtigen, indem sie es erlaubt, gewissenlos hochkomplexe Prozesse auszuführen. 

Längerfristig sollten wir uns nicht auf eine bestimmte Art von Schaden fixieren, denn die Gefahr geht von höherer Intelligenz selbst aus. Denken Sie daran, wie Menschen weniger intelligente Tiere dominieren, ohne sich auf eine bestimmte Waffe zu verlassen, oder wie ein KI-Schachprogramm menschliche Spieler besiegt, ohne sich auf einen bestimmten Zug zu verlassen.

Das Militär könnte die Kontrolle über ein hochleistungsfähiges System verlieren, das auf Zerstörung programmiert ist, was verheerende Folgen hätte. Ein hochentwickeltes KI-System mit der Aufgabe, Unternehmensgewinne zu maximieren, könnte drastische, unvorhersehbare Methoden anwenden. Selbst eine KI, die auf altruistisches Handeln ausgelegt ist, könnte dieses Ziel auf zerstörerische Weise erreichen. Wir können derzeit nicht wissen, wie sich KI-Systeme verhalten werden, weil niemand versteht, wie sie funktionieren. Nicht einmal ihre Schöpfer.

KI-Sicherheit ist inzwischen als Anliegen im Mainstream angekommen. Experten und die breite Öffentlichkeit sind sich einig in ihrer Besorgnis über die entstehenden Risiken und die dringende Notwendigkeit, diese zu bewältigen. Aber Besorgnis allein wird nicht ausreichen. Wir brauchen politische Maßnahmen, die dabei helfen sicherzustellen, dass KI-Entwicklung das Leben aller verbessert – und nicht bloß die Gewinne einiger Unternehmen steigert. Außerdem brauchen wir angemessene Governance, einschließlich einer robusten Regulierung und fähigen Institutionen, die diese transformative Technologie weg von extremen Risiken und hin zum Wohl der Menschheit lenken können.

Schwerpunktbereiche

Andere Schwerpunktbereiche

Erkunden Sie die anderen Schwerpunktbereiche, die wir für besonders dringlich halten:

Atomwaffen

Fast achtzig Jahre nach ihrer Entwicklung sind die Risiken, die von Atomwaffen ausgehen, so hoch wie eh und je – und neue Forschungsergebnisse zeigen, dass die Auswirkungen eines Atomkriegs noch schlimmer wären als bisher angenommen.

Biotechnologie

Vom versehentlichen Freilassen künstlicher Erreger bis hin zu katastrophalen Folgen von gentechnischen Experimenten – die Gefahren der Biotechnologie sind zu groß, um blind voranzuschreiten.
Unsere Inhalte

Aktuelle Inhalte zu Künstlicher Intelligenz

Beiträge

Prominente Wissenschaftler, Glaubensführer, Politiker und Künstler fordern ein Verbot von Superintelligenz, da Umfragen zeigen, dass die Amerikaner diese nicht wollen

Zu den Erstunterzeichnern zählen die KI-Pioniere Yoshua Bengio und Geoffrey Hinton, die bekannten Medienpersönlichkeiten Steve Bannon und Glenn Beck, Obamas nationale Sicherheitsberaterin Susan Rice, die Wirtschaftsvorreiter Steve Wozniak und Richard Branson, fünf Nobelpreisträger, die ehemalige irische Präsidentin Mary Robinson, die Schauspieler Stephen Fry und Joseph Gordon-Levitt sowie Hunderte weitere.
27 März, 2026

Stellungnahme: Leiter der US-Politik zu den Gesetzesempfehlungen des Weißen Hauses zur KI

Das Weiße Haus hat am Freitag seine lang erwarteten Empfehlungen zur KI-Gesetzgebung veröffentlicht, in denen es den Kongress weiterhin dazu auffordert, […]
22 März, 2026

Gouverneur DeSantis weist Behörden des Bundesstaates Florida an, mit Future of Life Institute zusammenzuarbeiten Future of Life Institute Familien vor den Gefahren der KI zu schützen

Im Rahmen der Zusammenarbeit werden ein Schulungsprogramm für Krisenberater und ein landesweites Formular zur Meldung von Schäden durch KI entwickelt, das auf gefährliche KI-Begleit-Apps abzielt.
9 März, 2026

„Das bedeutet es, sich für den Menschen einzusetzen“, erklärt eine breite Koalition aus konservativen, progressiven und zivilgesellschaftlichen Gruppen in einer gemeinsamen Grundsatzerklärung zur KI

Angesichts der zunehmenden Kritik an den Übergriffen des Silicon Valley hat eine bemerkenswert vielfältige Gruppe aus dem gesamten politischen Spektrum eine Reihe von KI-Grundsätzen verkündet, um die Ziele der aufkommenden menschenorientierten Bewegung klar zu definieren.
4 März, 2026

Erklärung von Max Tegmark zum Ultimatum des Kriegsministeriums

„Unsere Sicherheit und unsere Grundrechte dürfen nicht der internen Politik eines Unternehmens ausgeliefert sein; der Gesetzgeber muss daran arbeiten, diese von der überwältigenden Mehrheit der Bevölkerung akzeptierten roten Linien gesetzlich zu verankern.“
27 Februar, 2026

Future of Life Institute eine millionenschwere landesweite Kampagne zur Regulierung künstlicher Intelligenz

Die Kampagne „Protect What’s Human“ wird sich auf Bundes- und Landesebene für vernünftige Sicherheitsvorschriften für KI einsetzen
9 Februar, 2026

Die Sicherheitspraktiken von KI-Unternehmen bleiben hinter den öffentlichen Zusagen zurück und weisen strukturelle Schwächen auf, während die Spitzenreiter ihren Vorsprung weiter ausbauen

Ein Gewinn für die Transparenz war jedoch, dass sich fünf führende Unternehmen erstmals an der Umfrage der Scorecard beteiligten und der Öffentlichkeit damit wichtige neue Informationen zur Verfügung stellten.
2 Dezember, 2025

Michael Kleinman reagiert auf die bahnbrechende Gesetzgebung zur KI-Sicherheit

Das FLI feiert einen Meilenstein für die KI-Sicherheitsbewegung und unterstreicht ihre wachsende Dynamik
3 Oktober, 2025

Ressourcen

US-Bundesbehörden: Kartierung von AI-Aktivitäten

Dieser Leitfaden gibt einen Überblick über die KI-Aktivitäten der US-Exekutive und konzentriert sich dabei auf Regulierungsbehörden, Budgets und Programme.
9 September, 2024

Katastrophale KI-Szenarien

Konkrete Beispiele dafür, wie KI-Entwicklung schief gehen kann
1 Februar, 2024

Einführende Ressourcen zu KI-Risiken

Warum sind Leute so besorgt über KI?
18 September, 2023
Stapel von Druckpapieren

Ressourcen zur AI-Politik

Die Ressourcen, die die durch KI entstehenden politischen Herausforderungen beschreiben und auf sie reagieren, sind ständig im Fluss. Diese Seite soll Ihnen helfen, auf dem Laufenden zu bleiben, indem sie einige der besten derzeit verfügbaren Ressourcen auflistet.
21 März, 2023

Positionspapiere

Empfehlungen FLIfür den AI Impact Summit

Februar 2026

KI-Sicherheitsindex: Winter 2025 (2-seitige Zusammenfassung)

Dezember 2025

Kontrolle Umkehrung

November 2025

Eingebettete Ausschalter für KI-Rechner

September 2025

Offene Briefe

Unterzeichner
Versteckt

Die Pro-Human-KI-Erklärung

Während Unternehmen um die Einführung von KI wetteifern, steht die Menschheit vor einer Weggabelung: Entweder werden Menschen in immer mehr Bereichen ersetzt, wodurch Macht in Institutionen konzentriert wird, die keiner Rechenschaftspflicht unterliegen – oder es wird ein besserer Weg eingeschlagen, auf dem vertrauenswürdige KI das menschliche Potenzial fördert, Würde und Freiheit schützt und Gemeinschaften stärkt. Eine breite Koalition fordert, dass KI der Menschheit dient und nicht umgekehrt.
24 März, 2026
Unterzeichner
134015

Erklärung zur Superintelligenz

Wir fordern ein Verbot der Entwicklung von Superintelligenz, das erst dann aufgehoben werden darf, wenn (1) ein breiter wissenschaftlicher Konsens darüber besteht, dass dies sicher und kontrollierbar geschieht, und (2) die Öffentlichkeit dafür eintritt.
22 September, 2025
Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
Geschlossen

KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

Dieser gemeinsame offene Brief von Encode Justice und dem Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
25 Oktober, 2023

Auszeichnungen für die Zukunft des Lebens

Preis für die Zukunft des Lebens 2024

Drei führende Forscher und Wissenschaftler wurden von Future of Life Institute dafür geehrt, dass sie den Grundstein für moderne Ethik und Sicherheitsüberlegungen für künstliche Intelligenz und Computer gelegt haben.
Gewinner
James H. Moor, Batya Friedman, Steve Omohundro
Thema
Für die Schaffung der Grundlagen der modernen Computerethik und KI-Sicherheit

Abonnieren Sie den FLI Newsletter

Melden Sie sich an und erhalten Sie wie über 70.000 andere regelmäßig Neuigkeiten zu unserer Arbeit und unseren Schwerpunkten.
WolkeLupeKreuzPfeil-nach-oben linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram