Zum Inhalt springen

Politische Arbeit

Wir wollen die KI-Governance von zivilen Anwendungen, autonomen Waffen und bei der Inbetriebnahme nuklearer Systeme verbessern.

Einführung

Verbesserung der Governance von transformativen Technologien

Das Politikteam des FLI arbeitet an der Verbesserung der nationalen und internationalen Governance im Bereich der KI. Zu diesem Zweck hat das FLI zahlreiche Bemühungen angeführt.

Im Jahr 2017 haben wir die einflussreichen Asilomar AI Principles entwickelt, eine Reihe von Governance-Grundsätzen, die von Tausenden führender Köpfe in der KI-Forschung und -Industrie unterzeichnet wurden. Kürzlich löste unser offener Brief 2023 eine weltweite Debatte über den rechtmäßigen Platz der KI in unserer Gesellschaft aus. FLI hat vor dem US-Kongress, dem Europäischen Parlament und anderen wichtigen Gerichtsbarkeiten Stellung genommen.

Im zivilen Bereich beraten wir politische Entscheidungsträger darüber, wie fortschrittliche KI-Systeme am besten reguliert werden können. Im militärischen Bereich setzen wir uns bei den Vereinten Nationen für ein Abkommen über autonome Waffen ein und informieren die politischen Entscheidungsträger über die Risiken der Integration von KI-Systemen in die Inbetriebnahme nuklearer Systeme.

Unsere Arbeit

Politische Projekte

Kampf gegen Deepfakes

Das Jahr 2024 entwickelt sich schnell zum Jahr der Fakes. Als Teil einer wachsenden Koalition besorgter Organisationen fordert FLI Gesetzgeber auf, sinnvolle Schritte zu unternehmen, um die KI-getriebene Deepfake-Lieferkette zu unterbrechen.

AI-Sicherheitsgipfel

Regierungen arbeiten zunehmend zusammen, um KI-Sicherheit zu gewährleisten. FLI unterstützt und ermutigt solche Bemühungen.

Entwicklung möglicher KI-Regeln für die USA

Unser US-Politikteam berät politische Entscheidungsträger im Kongress und in den Legislativen der Bundesstaaten darüber, wie sichergestellt werden kann, dass KI-Systeme sicher und nützlich sind.

Auseinandersetzung mit der AI Executive Order

Wir bieten formellen Input für Behörden in der gesamten US-Regierung, einschließlich technischem und politischem Fachwissen zu einem breiten Spektrum von Themen wie Exportkontrollen, Hardware-Governance, Standardisierung, Beschaffungswesen und mehr.

KI-Konvergenz: Risiken am Schnittpunkt von KI zu nuklearen, biologischen und Cyber-Bedrohungen

Das Gefahrenpotenzial von KI-Systemen kann die Gefahrenpotenziale anderer Technologien verstärken – dies wird als KI-Konvergenz bezeichnet. Wir bieten politischen Entscheidungsträgern in den Vereinigten Staaten politische Expertise in drei wichtigen Konvergenzbereichen: biologische, nukleare und Cybertechnologien.

Stärkung der Europäischen Verordnung über Künstliche Intelligenz

Zu unseren wichtigsten Empfehlungen gehören die Ausweitung des Geltungsbereichs des Gesetzes zur Regulierung von allgemeinen KI-Systemen, sowie die Ausweitung der Definition verbotener Manipulation auf alle Arten von Manipulationstechniken sowie auf Manipulationen, die gesellschaftlichen Schaden verursachen.

Aufklärung über tödliche autonome Waffen

Militärische KI-Anwendungen breiten sich rasch aus. Wir entwickeln Bildungsmaterial darüber, wie bestimmte Klassen von KI-gesteuerten Waffen der nationalen Sicherheit schaden und die Zivilisation destabilisieren können, wie etwa Waffen, bei denen Tötungsentscheidungen vollständig an Algorithmen delegiert werden.

Globale KI-Governance bei den UN

Unsere Beteiligung an der Arbeit der Vereinten Nationen erstreckt sich über mehrere Jahre und Initiativen, darunter die Roadmap for Digital Cooperation und der Global Digital Compact (GDC).
Unsere gesamte Arbeit
Unsere Inhalte

Neueste Positionspapiere

RfC zu BIS-Regel zur "Festlegung von Meldepflichten für fortgeschrittene KI-Modelle und Rechencluster".

Oktober 2024

Die Vision in die Tat umsetzen: Die Umsetzung der KI-Roadmap des US-Senats

Juni 2024

Empfohlene Änderungen an den Gesetzgebungsvorschlägen zu Deepfakes

Mai 2024

FLI Antwort an OMB: Informationsanfrage zur verantwortungsvollen Beschaffung von künstlicher Intelligenz in der Regierung

April 2024

Mehr laden

Alle Dokumente

Geografischer Fokus

Wo Sie uns finden können

Als Organisation streuen wir unsere Aktivitäten. Der Großteil unserer politischen Arbeit findet in den USA (D.C. und Kalifornien), in der EU (Brüssel) und bei den Vereinten Nationen (New York und Genf) statt.

Vereinigte Staaten

In den USA beteiligt sich FLI an der Arbeitsgruppe des US AI Safety Institute und fördert die KI-Gesetzgebung auf Landes- und Bundesebene.

Europäische Union

In Europa liegt unser Schwerpunkt auf der konsequenten Umsetzung der EU-KI-Gesetzgebung und der Ermutigung europäischer Staaten, einen Vertrag über autonome Waffen zu unterstützen.

Vereinte Nationen

Bei den Vereinten Nationen setzt sich FLI für einen Vertrag über autonome Waffen und eine neue internationale Agentur zur Governance von KI ein.
Unsere wichtigsten Partner

Errungenschaften

Einige der von uns erzielten Erfolge

Entwicklung der AI Asilomar Principles

Im Jahr 2017 koordinierte FLI die Entwicklung der Asilomar AI Principles, eine der frühesten und einflussreichsten Sammlungen von KI-Governance-Grundsätzen.
Ansicht der Grundsätze

KI-Empfehlung im Plan der UN für digitale Zusammenarbeit

Unsere Empfehlungen (3C) zur globalen Governance von KI-Technologien wurden in die Pläne zur digitalen Zusammenarbeit des UN-Generalsekretärs aufgenommen.
Die Pläne ansehen

Stellungnahme von Max Tegmark vor dem EU-Parlament

Unser Gründer und Vorstandsmitglied Max Tegmark hat vor dem EU-Parlament eine Stellungnahme zur Regulierung von vielseitig einetzbaren KI-Systemen abgegeben.
Sehen Sie sich die Stellungnahme an
Unsere Inhalte

Ausgewählte Beiträge

Hier finden Sie eine Auswahl von Beiträgen, die sich auf unsere politische Arbeit beziehen:

Pariser AI-Sicherheitsfrühstück #2: Dr. Charlotte Stix

Die zweite Veranstaltung unserer Reihe "KI-Sicherheitsfrühstücke" mit Dr. Charlotte Stix zu Modellevaluierungen, betrügerischem KI-Verhalten und den KI-Sicherheits- und Aktionsgipfeln.
14 Oktober, 2024

US-Repräsentantenhaus fordert gesetzliche Haftung für Deepfakes

Jüngste Erklärungen aus dem US-Repräsentantenhaus erinnern an die dringende Bedrohung, die Deepfakes für unsere Gesellschaft darstellen, insbesondere im Vorfeld der US-Präsidentschaftswahlen.
1 Oktober, 2024

Stellungnahme zum Veto gegen das kalifornische Gesetz SB 1047

"Die wütende Lobbyarbeit gegen das Gesetz kann nur auf eine Weise interpretiert werden: Diese Unternehmen glauben, dass sie nach ihren eigenen Regeln spielen und niemandem Rechenschaft schuldig sein sollten. Dieses Veto bestärkt sie nur in diesem Glauben. Jetzt ist es an der Zeit für eine Gesetzgebung auf Landes-, Bundes- und globaler Ebene, um Big Tech an ihre Verpflichtungen zu binden.
30 September, 2024

Panda vs. Adler

FLIDer Direktor für Politik, warum dem nationalen Interesse der USA mit einer kooperativen Strategie gegenüber China viel besser gedient ist als mit einer feindlichen.
27 September, 2024

US-Bundesbehörden: Kartierung von AI-Aktivitäten

Dieser Leitfaden gibt einen Überblick über die KI-Aktivitäten der US-Exekutive und konzentriert sich dabei auf Regulierungsbehörden, Budgets und Programme.
9 September, 2024

Pariser AI Safety Breakfast #1: Stuart Russell

Die erste Veranstaltung unserer Reihe "AI Safety Breakfasts" mit Stuart Russell über wichtige Entwicklungen im Bereich der KI, KI-Forschungsprioritäten und die KI-Sicherheitsgipfel.
5 August, 2024

Die Artist Rights Alliance und Annie Lennox sprechen sich für die Kampagne gegen Deepfakes aus

Lennox erklärt: "Wir müssen die Technologieunternehmen, deren KI-Modelle diesen Schaden ermöglichen, zur Verantwortung ziehen."
2 August, 2024

Umfrage zeigt breite Popularität von CA SB1047 zur Regulierung von AI

Eine neue Umfrage des AI Policy Institute zeigt eine breite und überwältigende Unterstützung für SB1047, einen Gesetzentwurf zur Bewertung des Risikos katastrophaler Schäden durch KI-Modelle.
23 Juli, 2024
Unsere Inhalte

Kontaktieren Sie uns

Wir bringen Sie mit der richtigen Person in Kontakt.

Wir tun unser Bestes, um alle eingehenden Anfragen innerhalb von drei Werktagen zu beantworten. Unser Team ist über den ganzen Globus verteilt. Bitte nehmen Sie Rücksicht und denken Sie daran, dass die Person, die Sie kontaktieren, sich möglicherweise nicht in Ihrer Zeitzone befindet.
Bitte richten Sie Medienanfragen und Einladungen zu Vorträgen für Max Tegmark an press@futureoflife.org. Alle anderen Anfragen können an contact@futureoflife.orggesendet werden.

Abonnieren Sie den Newsletter des Future of Life Institutes.

Schließen Sie sich 40.000+ anderen an, die regelmäßig über unsere Arbeit und unsere Problembereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram