Unsere Geschichte
2014
Mai 2014
Gründung
Das Future of Life Institute wird von unseren Vorstandsmitgliedern gegründet und veranstaltet seine Gründungsfeier am MIT.
2015
2.-5. Januar 2015
KI-Konferenz in Puerto Rico
Diese Konferenz bringt weltweit führende KI-Entwickler aus Wissenschaft und Industrie mit Experten aus Wirtschaft, Recht und Ethik zusammen. Auf der Veranstaltung werden vielversprechende Forschungsrichtungen aufgezeigt, um den zukünftigen Nutzen der KI zu maximieren und gleichzeitig Fallstricke zu vermeiden (siehe diesen offenen Brief).
2015
Förderprogramm 2015
Das FLI richtet das weltweit erste von Fachleuten überprüfte Förderprogramm ein, um sicherzustellen, dass künstliche Intelligenz sicher, ethisch vertretbar und nutzbringend bleibt.
2015
FLI Podcast startet
Das FLI startet einen Podcast, der sich Gesprächen mit einigen der angesehensten Persönlichkeiten im Bereich neuer Technologien und Risikominderung widmet. Zu den Gästen gehören heute Daniel und Dario Amodei, Dan Hendrycks, Liv Boeree, Yuval Noah Harari, Annie Jacobsen, Beatrice Fihn, Connor Leahy, Ajeya Cotra und viele weitere.
2017
3.-8. Januar 2017
BAI 2017 und die Asilomar-Prinzipien
Im Anschluss an die KI-Konferenz 2015 in Puerto Rico lädt das FLI auf der BAI 2017 weltweit führende Forscher aus Wissenschaft und Industrie sowie Vordenker aus den Bereichen Wirtschaft, Recht, Ethik und Philosophie zu einem fünftägigen Treffen, das der nützlichen KI gewidmet ist.
Aus der Konferenz 2017 geht die Formulierung der Asilomar-KI-Prinzipiendurch das FLI hervor – eines der frühesten und einflussreichsten Sammelwerke an Leitlinien für die KI-Governance.
Juli 2017
UN-Vertrag zum Verbot von Nuklearwaffen
72 Jahre nach ihrer Erfindung verabschieden die Staaten der Vereinten Nationen formell ein Abkommen, das Nuklearwaffen verbietet und letztlich deren Abschaffung anstrebt. Hinter den Kulissen mobilisiert das FLI 3.700 Wissenschaftler in 100 Ländern - darunter 30 Nobelpreisträger - zur Unterstützung dieses Vertrags und präsentiert ein Video während der Beratungen bei der UNO.
Oktober 2017
Erster Future of Life Award
Mit dem Future of Life Award werden jedes Jahr die unscheinbare Menschen gewürdigt, die dazu beigetragen haben, die Zukunft des Lebens zu bewahren. Im Jahr 2017 geht der erste Preis an Vasili Arkhipov für seine Rolle bei der Abwendung eines Atomkriegs während der Kubakrise.
November 2017
Slaughterbots
Das FLI produziert den Kurzfilm Slaughterbots, der das öffentliche Bewusstsein für autonome Waffen schärft.
Auf YouTube ging das Video schnell viral und wurde von anderen Kanälen gerepostet. Insgesamt hat es inzwischen über 100 Millionen Aufrufe. Im Monat seiner Veröffentlichung wurde es auf der Tagung des Übereinkommens der Vereinten Nationen über bestimmte konventionelle Waffen in Genf vorgeführt.
2018
2018
Förderprogramm 2018
Das FLI startet ein zweites Förderprogramm, um zu gewährleisten, dass künstliche allgemeine Intelligenz sicher und nützlich bleibt.
Juni 2018
Versprechen zu tödlichen autonomen Waffen
Das FLI veröffentlicht diesen offenen Brief, der inzwischen von über 5000 Einzelpersonen und Organisationen unterzeichnet wurde. In diesem wird erklärt, dass "die Entscheidung, ein menschliches Leben zu nehmen, niemals an eine Maschine delegiert werden sollte".
30. August 2018
Der US-Bundesstaat Kalifornien unterstützt die Asilomar KI-Prinzipien
Der US-Bundesstaat Kalifornien verabschiedet einstimmig ein Gesetz zur Unterstützung der Asilomar-KI-Prinzipien die im Vorjahr von FLI entwickelt wurden.
2019
2019
BAGI-Diskussionskreise 2019
Nach der KI-Konferenz in Puerto Rico im Jahr 2015 und Asilomar 2017 kehrt das FLI
Anfang 2019 nach Puerto Rico zurück, um die Diskussion über nutzbringende AGI (deutsch: künstliche allgemeine Intelligenz) zu fördern.
Anfang 2019 nach Puerto Rico zurück, um die Diskussion über nutzbringende AGI (deutsch: künstliche allgemeine Intelligenz) zu fördern.
Juni 2019
UN-Plan für digitale Zusammenarbeit und Co-Champion für KI
Das FLI wird als zivilgesellschaftlicher Co-Champion für die Empfehlung des UN-Generalsekretärs zur digitalen Zusammenarbeit(3C) über die globale Governance von KI-Technologien benannt.
2020
April 2020
Better Futures Kurzgeschichten-Wettbewerb
Das FLI ist Mitveranstalter des 2020 Sapiens Plurum Short Fiction Contest mit dem Thema „Better Futures: Artenübergreifende Interaktion“. Ziel des Wettbewerbs ist es, Autoren zu ermutigen, sich die Zukunft in Form von wünschenswerten Ergebnissen vorzustellen und sich zu überlegen, wie wir dorthin gelangen könnten. Hier sind die Gewinner des Wettbewerbs 2020.
Juni 2020
Offener Brief zur vorausschauenden Regulierung von KI
Das FLI veröffentlicht einen offenen Brief, in dem es die Europäische Kommission auffordert, bei der Ausarbeitung von Vorschriften die künftigen Möglichkeiten von KI zu berücksichtigen und sich gegen die Lobbyarbeit der Industrie zu wehren. Der Brief erhält über 120 Unterschriften, darunter einige der weltweit führenden KI-Forscher.
August 2020
Start der Kampagne zu autonomen Waffensystemen
Das FLI startet seine Kampagne zum Thema autonome Waffen mit der Veröffentlichung einer politischen Position und einer Reihe von Blogbeiträgen.
2021
2021
2021 Förderprogramm
Das FLI startet ein mehrjähriges Förderprogramm in Höhe von 25 Mio. Dollar, das sich auf die Verringerung der extremsten Risiken für das Leben auf unserem Planeten, der so genannten „existenziellen Risiken“, konzentriert.
Dezember 2021
Slaughterbots - if human: kill()
Der Kurzfilm Slaughterbots hatte die Welt vor dem gewarnt, was kommen würde. Vier Jahre später zeigt die Fortsetzung Slaughterbots - if human: kill(), dass autonome Waffen angekommen sind. Wird sich die Menschheit durchsetzen?
Der Film wird von mehr als 10 Mio. Menschen auf YouTube, Facebook und Twitter angesehen und erhält eine umfangreiche Medienberichterstattung, unter anderem von Axios, Forbes, BBC World Service's Digital Planet und BBC Click, PopularMechanics und ProlificNorth.
2022
März 2022
Max Tegmark im EU-Parlament
FLI-Präsident Max Tegmark sagt im EU-Parlament über die Regulierung von KI-Systemen für allgemeine Zwecke aus.
2023
März 2023
Gigantische KI-Experimente unterbrechen
Das FLI fordert in einem offenen Brief eine Unterbrechung für KI-Trainingsläufe, die größer sind als GPT-4, welches einige Wochen zuvor veröffentlicht worden war. Der Brief entfacht eine weltweite Debatte über die Vorteile und Risiken einer schnellen KI-Skalierung.
Juni 2023
Atomkrieg Simulationsvideo
Das FLI veröffentlicht die weltweit realistischste Simulation eines Nuklearkonflikts zwischen den USA und Russland, die auf realen aktuellen nuklearen Zielen und den neuesten wissenschaftlichen Erkenntnissen über die Auswirkungen des nuklearen Winters beruht.
Juli 2023
Künstliche Eskalation
Unser Kurzfilm zeigt, wie die Dynamik des Wettlaufs zwischen den USA und China zu einer unklugen Integration von KI in Atomwaffensysteme führen könnte- mit katastrophale Konsequenzen.
Oktober 2023
Max Tegmark beim AI Insight Forum
FLI Präsident Max Tegmark ist eingeladen, um auf dem AI Insight Forum zu sprechen.
Oktober 2023
Gemeinsamer Offener Brief mit Encode Justice
Ein gemeinsamer offener Brief des Jugendnetzwerks Encode Justice und des FLI fordert die Umsetzung dreier konkreter Richtilinen der USA zur Bekämpfung gegenwärtiger und zukünftiger KI-Schäden.
2024
Januar 2024
Futures-Program
Das FLI stellt sein Futures-Programm vor, das die Menschheit zu den positiven Ergebnissen führen soll, die durch transformative Technologien möglich werden. Das Programm startet mit zwei Projekten, die sich auf die Schaffung positiver Ergebnisse durch KI konzentrieren: der Windfall Trust und Förderprogramme, die sich auf „Realising Aspirational Futures“ konzentrieren.
Januar 2024
Offener Brief zur weitsichtigen Führung
Die Ältesten, das FLI und eine Reihe herausragender Persönlichkeiten des öffentlichen Lebens fordern die Staats- und Regierungschefs der Welt auf, sich dringend mit den anhaltenden Schäden und wachsenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
Januar 2024
Beginn der Kampagne zum Verbot von Deepfakes
Das FLI startet die Kampagne zum Verbot von Deepfakes in Zusammenarbeit mit einer parteiübergreifenden Koalition von Organisationen wie Control AI, SAG-AFTRA, the Christian Partnership, Encode Justice, der Artist's Rights Alliance und weiteren.
Februar 2024
Newsletter und Datenbanken zu autonomen Waffen
Das FLI initiiert den Autonomous Weapons Newsletter, einen monatlichen Newsletter, der über politische Bemühungen, Waffensystemtechnologie und mehr berichtet. Dies geschieht in Kooperation mit Autonomous Weapons Watch - einer Datenbank der gefährlichsten autonomen Waffen, die derzeit produziert werden und auf dem Markt sind.
April 2024
Das FLI in Wien zu autonomen Waffen
FLI Vorstandsmitglied Jaan Tallinn hält die Eröffnungsrede für die Wiener Konferenz über autonome Waffen 2024. Unser Exekutivdirektor Anthony Aguirre und die Direktorin für Zukunftsfragen Emilia Javorsky nehmen Expertenpanels teil.
April 2024
Max Tegmark spricht vor der US-AI-Taskforce
Unser Präsident Max Tegmark informiert die Mitglieder des Kongresses in der KI-Taskforce des Repräsentantenhauses über das Thema Deepfakes. Er ist der erste führende Vertreter der Zivilgesellschaft, der dies tut.
Juni 2024
Unser Standpunkt zu KI
Das FLI veröffentlicht eine aktualisierte Stellungnahme zu KI, die u. a. extreme Risiken, Machtkonzentration, die Unterbrechung fortgeschrittener KI und die Ermächtigung des Menschen einschließt.
Um zu sehen, woran wir aktuell arbeiten, siehe Unsere Arbeit im Überblick.