Zum Inhalt springen

Unsere Geschichte

2014

Mai 2014

Gründung

Das Future of Life Institute wird von unseren Vorstandsmitgliedern gegründet und veranstaltet seine Gründungsfeier am MIT.
Mai 2014

2015

2.-5. Januar 2015

KI-Konferenz in Puerto Rico

Diese Konferenz bringt weltweit führende KI-Entwickler aus Wissenschaft und Industrie mit Experten aus Wirtschaft, Recht und Ethik zusammen. Auf der Veranstaltung werden vielversprechende Forschungsrichtungen aufgezeigt, um den zukünftigen Nutzen der KI zu maximieren und gleichzeitig Fallstricke zu vermeiden (siehe diesen offenen Brief).
2.-5. Januar 2015
2015

Förderprogramm 2015

Das FLI richtet das weltweit erste von Fachleuten überprüfte Förderprogramm ein, um sicherzustellen, dass künstliche Intelligenz sicher, ethisch vertretbar und nutzbringend bleibt.
2015
2015

FLI Podcast startet

Das FLI startet einen Podcast, der sich Gesprächen mit einigen der angesehensten Persönlichkeiten im Bereich neuer Technologien und Risikominderung widmet. Zu den Gästen gehören heute Daniel und Dario Amodei, Dan Hendrycks, Liv Boeree, Yuval Noah Harari, Annie Jacobsen, Beatrice Fihn, Connor Leahy, Ajeya Cotra und viele weitere.
2015

2017

3.-8. Januar 2017

BAI 2017 und die Asilomar-Prinzipien

Im Anschluss an die KI-Konferenz 2015 in Puerto Rico lädt das FLI auf der BAI 2017 weltweit führende Forscher aus Wissenschaft und Industrie sowie Vordenker aus den Bereichen Wirtschaft, Recht, Ethik und Philosophie zu einem fünftägigen Treffen, das der nützlichen KI gewidmet ist.
Aus der Konferenz 2017 geht die Formulierung der Asilomar-KI-Prinzipiendurch das FLI hervor – eines der frühesten und einflussreichsten Sammelwerke an Leitlinien für die KI-Governance.
3.-8. Januar 2017
Juli 2017

UN-Vertrag zum Verbot von Nuklearwaffen

72 Jahre nach ihrer Erfindung verabschieden die Staaten der Vereinten Nationen formell ein Abkommen, das Nuklearwaffen verbietet und letztlich deren Abschaffung anstrebt. Hinter den Kulissen mobilisiert das FLI 3.700 Wissenschaftler in 100 Ländern - darunter 30 Nobelpreisträger - zur Unterstützung dieses Vertrags und präsentiert ein Video während der Beratungen bei der UNO.
Juli 2017
Oktober 2017

Erster Future of Life Award

Mit dem Future of Life Award werden jedes Jahr die unscheinbare Menschen gewürdigt, die dazu beigetragen haben, die Zukunft des Lebens zu bewahren. Im Jahr 2017 geht der erste Preis an Vasili Arkhipov für seine Rolle bei der Abwendung eines Atomkriegs während der Kubakrise.
Oktober 2017
November 2017

Slaughterbots

Das FLI produziert den Kurzfilm Slaughterbots, der das öffentliche Bewusstsein für autonome Waffen schärft.
Auf YouTube ging das Video schnell viral und wurde von anderen Kanälen gerepostet. Insgesamt hat es inzwischen über 100 Millionen Aufrufe. Im Monat seiner Veröffentlichung wurde es auf der Tagung des Übereinkommens der Vereinten Nationen über bestimmte konventionelle Waffen in Genf vorgeführt.
November 2017

2018

2018

Förderprogramm 2018

Das FLI startet ein zweites Förderprogramm, um zu gewährleisten, dass künstliche allgemeine Intelligenz sicher und nützlich bleibt.
2018
Juni 2018

Versprechen zu tödlichen autonomen Waffen

Das FLI veröffentlicht diesen offenen Brief, der inzwischen von über 5000 Einzelpersonen und Organisationen unterzeichnet wurde. In diesem wird  erklärt, dass "die Entscheidung, ein menschliches Leben zu nehmen, niemals an eine Maschine delegiert werden sollte".
Juni 2018
30. August 2018

Der US-Bundesstaat Kalifornien unterstützt die Asilomar KI-Prinzipien

Der US-Bundesstaat Kalifornien verabschiedet einstimmig ein Gesetz zur Unterstützung der Asilomar-KI-Prinzipien die im Vorjahr von FLI entwickelt wurden.
30. August 2018

2019

2019

BAGI-Diskussionskreise 2019

Nach der KI-Konferenz in Puerto Rico im Jahr 2015 und Asilomar 2017 kehrt das FLI
Anfang 2019 nach Puerto Rico zurück, um die Diskussion über nutzbringende AGI (deutsch: künstliche allgemeine Intelligenz) zu fördern.
2019
Juni 2019

UN-Plan für digitale Zusammenarbeit und Co-Champion für KI

Das FLI wird als zivilgesellschaftlicher Co-Champion für die Empfehlung des UN-Generalsekretärs zur digitalen Zusammenarbeit(3C) über die globale Governance von KI-Technologien benannt.
Juni 2019

2020

April 2020

Better Futures Kurzgeschichten-Wettbewerb

Das FLI ist Mitveranstalter des 2020 Sapiens Plurum Short Fiction Contest mit dem Thema „Better Futures: Artenübergreifende Interaktion“. Ziel des Wettbewerbs ist es, Autoren zu ermutigen, sich die Zukunft in Form von wünschenswerten Ergebnissen vorzustellen und sich zu überlegen, wie wir dorthin gelangen könnten. Hier sind die Gewinner des Wettbewerbs 2020.
April 2020
Juni 2020

Offener Brief zur vorausschauenden Regulierung von KI

Das FLI veröffentlicht einen offenen Brief, in dem es die Europäische Kommission auffordert, bei der Ausarbeitung von Vorschriften die künftigen Möglichkeiten von KI zu berücksichtigen und sich gegen die Lobbyarbeit der Industrie zu wehren. Der Brief erhält über 120 Unterschriften, darunter einige der weltweit führenden KI-Forscher.
Juni 2020
August 2020

Start der Kampagne zu autonomen Waffensystemen

Das FLI startet seine Kampagne zum Thema autonome Waffen mit der Veröffentlichung einer politischen Position und einer Reihe von Blogbeiträgen.
August 2020

2021

2021

2021 Förderprogramm

Das FLI startet ein mehrjähriges Förderprogramm in Höhe von 25 Mio. Dollar, das sich auf die Verringerung der extremsten Risiken für das Leben auf unserem Planeten, der so genannten „existenziellen Risiken“, konzentriert.
2021
Dezember 2021

Slaughterbots - if human: kill()

Der Kurzfilm Slaughterbots hatte die Welt vor dem gewarnt, was kommen würde. Vier Jahre später zeigt die Fortsetzung Slaughterbots - if human: kill(), dass autonome Waffen angekommen sind. Wird sich die Menschheit durchsetzen?
Der Film wird von mehr als 10 Mio. Menschen auf YouTube, Facebook und Twitter angesehen und erhält eine umfangreiche Medienberichterstattung, unter anderem von Axios, Forbes, BBC World Service's Digital Planet und BBC Click, PopularMechanics und ProlificNorth.
Dezember 2021

2022

März 2022

Max Tegmark im EU-Parlament

FLI-Präsident Max Tegmark sagt im EU-Parlament über die Regulierung von KI-Systemen für allgemeine Zwecke aus.
März 2022

2023

März 2023

Gigantische KI-Experimente unterbrechen

Das FLI fordert in einem offenen Brief eine Unterbrechung für KI-Trainingsläufe, die größer sind als GPT-4, welches einige Wochen zuvor veröffentlicht worden war. Der Brief entfacht eine weltweite Debatte über die Vorteile und Risiken einer schnellen KI-Skalierung.
März 2023
Juni 2023

Atomkrieg Simulationsvideo

Das FLI veröffentlicht die weltweit realistischste Simulation eines Nuklearkonflikts zwischen den USA und Russland, die auf realen aktuellen nuklearen Zielen und den neuesten wissenschaftlichen Erkenntnissen über die Auswirkungen des nuklearen Winters beruht.
Juni 2023
Juli 2023

Künstliche Eskalation

Unser Kurzfilm zeigt, wie die Dynamik des Wettlaufs zwischen den USA und China zu einer unklugen Integration von KI in Atomwaffensysteme führen könnte- mit katastrophale Konsequenzen.
Juli 2023
Oktober 2023

Max Tegmark beim AI Insight Forum

Oktober 2023
Oktober 2023

Gemeinsamer Offener Brief mit Encode Justice

Ein gemeinsamer offener Brief des Jugendnetzwerks Encode Justice und des FLI fordert die Umsetzung dreier konkreter Richtilinen der USA zur Bekämpfung gegenwärtiger und zukünftiger KI-Schäden.
Oktober 2023

2024

Januar 2024

Futures-Program

Das FLI stellt sein Futures-Programm vor, das die Menschheit zu den positiven Ergebnissen führen soll, die durch transformative Technologien möglich werden. Das Programm startet mit zwei Projekten, die sich auf die Schaffung positiver Ergebnisse durch KI konzentrieren: der Windfall Trust und Förderprogramme, die sich auf „Realising Aspirational Futures“ konzentrieren.
Januar 2024
Januar 2024

Offener Brief zur weitsichtigen Führung

Die Ältesten, das FLI und eine Reihe herausragender Persönlichkeiten des öffentlichen Lebens fordern die Staats- und Regierungschefs der Welt auf, sich dringend mit den anhaltenden Schäden und wachsenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
Januar 2024
Januar 2024

Beginn der Kampagne zum Verbot von Deepfakes

Das FLI startet die  Kampagne zum Verbot von Deepfakes in Zusammenarbeit mit einer parteiübergreifenden Koalition von Organisationen wie Control AI, SAG-AFTRA, the Christian Partnership, Encode Justice, der Artist's Rights Alliance und weiteren.
Januar 2024
Februar 2024

Newsletter und Datenbanken zu autonomen Waffen

Das FLI initiiert den Autonomous Weapons Newsletter, einen monatlichen Newsletter, der über politische Bemühungen, Waffensystemtechnologie und mehr berichtet. Dies geschieht in Kooperation mit Autonomous Weapons Watch - einer Datenbank der gefährlichsten autonomen Waffen, die derzeit produziert werden und auf dem Markt sind.
Februar 2024
April 2024

Das FLI in Wien zu autonomen Waffen

FLI Vorstandsmitglied Jaan Tallinn hält die Eröffnungsrede für die Wiener Konferenz über autonome Waffen 2024. Unser Exekutivdirektor Anthony Aguirre und die Direktorin für Zukunftsfragen Emilia Javorsky nehmen Expertenpanels teil.
April 2024
April 2024

Max Tegmark spricht vor der US-AI-Taskforce

Unser Präsident Max Tegmark informiert die Mitglieder des Kongresses in der KI-Taskforce des Repräsentantenhauses über das Thema Deepfakes. Er ist der erste führende Vertreter der Zivilgesellschaft, der dies tut.
April 2024
Juni 2024

Unser Standpunkt zu KI

Das FLI veröffentlicht eine aktualisierte Stellungnahme zu KI, die u. a. extreme Risiken, Machtkonzentration, die Unterbrechung fortgeschrittener KI und die Ermächtigung des Menschen einschließt.
Juni 2024
Um zu sehen, woran wir aktuell arbeiten, siehe Unsere Arbeit im Überblick.

Abonnieren Sie den Newsletter des Future of Life Institutes.

Schließen Sie sich 40.000+ anderen an, die regelmäßig über unsere Arbeit und unsere Problembereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram