Politik und Forschung
Einführung
Verbesserung der Governance im Bereich transformativer Technologien
Das Politikteam des FLI arbeitet an der Verbesserung der nationalen und internationalen Governance im Bereich der KI. Zu diesem Zweck hat das FLI zahlreiche Bemühungen angeführt.
Im Jahr 2017 haben wir die einflussreichen Asilomar AI Principles entwickelt, eine Reihe von Governance-Grundsätzen, die von Tausenden führender Köpfe in der KI-Forschung und -Industrie unterzeichnet wurden. Kürzlich löste unser offener Brief 2023 eine weltweite Debatte über den rechtmäßigen Platz der KI in unserer Gesellschaft aus. FLI hat vor dem US-Kongress, dem Europäischen Parlament und anderen wichtigen Gerichtsbarkeiten Stellung genommen.

Wie könnte KI unsere Welt verändern?
Tomorrow's AI ist eine Scrollytelling-Website mit 13 interaktiven, forschungsgestützten Szenarien, die zeigen, wie fortschrittliche KI die Welt verändern könnte - im Guten wie im Schlechten. Das Projekt verbindet Realismus mit Weitsicht, um sowohl die Herausforderungen einer positiven Zukunft als auch die Chancen zu veranschaulichen, wenn wir erfolgreich sind. Die Leser sind eingeladen, sich ihre eigene Meinung darüber zu bilden, welche Wege die Menschheit einschlagen sollte.
Projektdatenbank

Religiöse Perspektiven auf eine positive KI-Zukunft

Empfehlungen für den AI-Aktionsplan der USA

FLI AI-Sicherheitsindex: Sommer 2025 Ausgabe
KI-Konvergenz: Risiken am Schnittpunkt von KI zu nuklearen, biologischen und Cyber-Bedrohungen

KI-Sicherheitsgipfel

Auseinandersetzung mit AI Executive Orders

Umsetzung des europäischen AI-Gesetzes

Aufklärungsarbeit über autonome Waffensysteme
Aktuelle Politik- und Forschungspapiere
Produziert von uns
Leitfaden für Mitarbeiter zur KI-Politik: Kongressausschüsse und einschlägige Gesetzgebung
Empfehlungen für den AI-Aktionsplan der USA
Sicherheitsstandards zur Bereitstellung kontrollierbarer und nützlicher AI-Tools
Rahmen für den verantwortungsvollen Einsatz von KI im Nuklearbereich
Mehr laden
Mit unseren Mitarbeitern und Stipendiaten
Eine Taxonomie der systemischen Risiken von KI für allgemeine Zwecke
Wirksame Abhilfemaßnahmen für systemische Risiken durch KI für allgemeine Zwecke
Untersuchung populärer Argumente gegen das existenzielle Risiko von KI: Eine philosophische Analyse
Das AI Risk Repository: Meta-Review, Datenbank und Taxonomie
Mehr laden
Wir stellen hochwertige politische Ressourcen zur Unterstützung von Entscheidungsträgern bereit

US-Bundesbehörden: Kartierung von AI-Aktivitäten

EU AI Act Explorer und Compliance Checker
Website über autonome Waffensysteme
Geografischer Fokus
Wo Sie uns finden können

Vereinigte Staaten

Europäische Union

Vereinte Nationen
Errungenschaften
Einige der von uns erzielten Erfolge

Entwicklung der AI Asilomar Principles

KI-Empfehlung im Plan der UN für digitale Zusammenarbeit

Stellungnahme von Max Tegmark vor dem EU-Parlament
Ausgewählte Beiträge

Michael Kleinman reagiert auf die bahnbrechende Gesetzgebung zur KI-Sicherheit

Kontext und Agenda für den KI-Aktionsgipfel 2025

FLI Erklärung zum Memorandum des Weißen Hauses zur nationalen Sicherheit

Pariser KI-Sicherheitsfrühstück #2: Dr. Charlotte Stix

US-Repräsentantenhaus fordert gesetzliche Haftung für Deepfakes

Stellungnahme zum Veto gegen das kalifornische Gesetz SB 1047

Panda vs. Adler







