Outreach work
The educational and communications wing of the FLI team.
Einführung
Informing the discourse around our cause areas.
The outreach team works to improve awareness, provide accurate and accessible information, and deepen understanding of our cause areas. Using evidence-based strategies of risk communication, we seek to emphasise positive steps by which extreme risks from transformative technologies can be reduced, and global prospects enhanced.
To these ends, we create informative content, operate dynamic social media accounts, collaborate with journalists, and run the Future of Life Award, celebrating unsung heroic individual efforts which made our world a better, safer place.
To these ends, we create informative content, operate dynamic social media accounts, collaborate with journalists, and run the Future of Life Award, celebrating unsung heroic individual efforts which made our world a better, safer place.
Unsere Arbeit
Outreach projects
Learn more about our ongoing projects:
Kampf gegen Deepfakes
Das Jahr 2024 entwickelt sich schnell zum Jahr der Fakes. Als Teil einer wachsenden Koalition besorgter Organisationen fordert FLI Gesetzgeber auf, sinnvolle Schritte zu unternehmen, um die KI-getriebene Deepfake-Lieferkette zu unterbrechen.
Wettbewerb zu Visonen der Superintelligenz
Ein Wettbewerb für die besten Bildungsmaterialien zum Thema
Superintelligenz, die damit verbundenen Risiken und die Auswirkungen
dieser Technologie auf unsere Welt. 5 Preise zu je 10.000 $.
Der Brief der Ältesten zu existenzielle Bedrohungen
Die Ältesten, das Future of Life Institute und eine Reihe herausragender Persönlichkeiten des öffentlichen Lebens fordern die Staats- und Regierungschefs der Welt auf, sich dringend mit den anhaltenden Schäden und eskalierenden Risiken durch die Klimakrise, Pandemien, Atomwaffen und unkontrollierte künstliche Intelligenz auseinanderzusetzen.
Aufklärung über tödliche autonome Waffen
Militärische KI-Anwendungen breiten sich rasch aus. Wir entwickeln Bildungsmaterial darüber, wie bestimmte Klassen von KI-gesteuerten Waffen der nationalen Sicherheit schaden und die Zivilisation destabilisieren können, wie etwa Waffen, bei denen Tötungsentscheidungen vollständig an Algorithmen delegiert werden.
KI-Eskalation
Unser fiktiver Film zeigt eine Welt, in der künstliche Intelligenz in nukleare Kommando-, Kontroll- und Kommunikationssysteme (NC3) integriert wird - mit beängstigenden Folgen.
Worldbuilding-Wettbewerb
Das Future of Life Institute akzeptierte Bewerbungen von Teams aus aller Welt für ein Preisgeld von bis zu 100.000 $. Sie sollten Visionen einer plausiblen, erstrebenswerten Zukunft entwerfen, die starke künstliche Intelligenz beinhaltet.
Der Future of Life Award
Jedes Jahr wird dieser Preis an einen oder mehrere unbesungene Helden verliehen, die einen bedeutenden Beitrag zur Erhaltung der Zukunft des Lebens geleistet haben.
Future of Life Institute Podcast
Ein Interview-Podcast, der Gespräche mit einigen der weltweit führenden Denkern und Schaffern auf dem Gebiet der neuen Technologien und der Risikominderung bietet. Über 140 Episoden seit 2015, 4,8/5 Sterne auf Apple Podcasts.
Unsere gesamte Arbeit
Unsere Inhalte
Featured videos
Here a few of the videos that we have produced ourselves, or in collaboration with other content creators:
Regulate AI Now
28 September, 2023
The AI Pause. What’s Next?
22 September, 2023
What nuclear war looks like from space
15 August, 2022
The Story of Nuclear Winter
6 August, 2022
These 8 People May Have Saved Your Life
25 Juli, 2022
Slaughterbots – if human: kill()
30 November, 2021
How To Solve Every Global Crisis
16 September, 2021
How We Saved the Ozone Layer
16 September, 2021
Slaughterbots
13 November, 2017
Myths and Facts About Superintelligent AI
29 August, 2017
Why You Should Care About Nukes
29 März, 2016
Unsere Inhalte
Errungenschaften
Einige der von uns erzielten Erfolge
Here are a few of our proudest achievements in this area:
18 unbesungene Helden mit dem Future of Life Award geehrt
Every year since 2017, the Future of Life Award has celebrated the contributions of people who helped preserve the prospects of life.
Mehr zur Auszeichnung
Produced a viral video series raising the alarm on lethal autonomous weapons
Wir haben zwei Kurzfilme produziert, die zusammen mehr als 75 Millionen Mal angesehen wurden und eine Welt zeigen, in der es tödlichen autonomen Waffen gestattet wurde, sich zu verbreiten.
Sehen Sie sich die Videos an
Interviewed over 100+ key experts in our cause areas
Over the past 5 years, our team has hosted in-depth conversations with over 100+ leading figures in fields relating to our cause areas, all available for free on our podcast.
Listen to the podcast
Beiträge
Ausgewählte Beiträge
Future of Life Institute Statement on the Pope’s G7 AI Speech
Max Tegmark provides a response to the Pope's remarks on autonomous weapons to G7 leaders.
18 Juni, 2024
Dr. Matthew Meselson gewinnt den Future of Life Award 2019
Am 9. April 2019 erhielt Dr. Matthew Meselson den mit 50.000 $ dotierten Future of Life Award im Rahmen einer Zeremonie an der University of [...]
9 April, 2019
$50,000 Award to Stanislav Petrov for helping avert WWIII – but US denies visa
Click here to see this page in other languages: German Russian To celebrate that today is not the 35th anniversary of […]
26 September, 2018
Unsere Inhalte
Podcasts
Featured podcasts
2 November, 2021
Rohin Shah on the State of AGI Safety Research in 2021
Abspielen
7 September, 2021
James Manyika on Global Economic and Technological Trends
Abspielen
All episodes
Ressourcen
Featured resources
Women for the Future
In honor of Women's History Month, FLI presents 'Women for the Future': a celebration of the women who’ve made it their job to create a better world for us all. Ran in March 2019.
13 März, 2019
Billionen Dollar für Atombomben
Würden Sie 1,2 Billionen Dollar Steuergelder für Atomwaffen ausgeben? Wie viel sind Atomwaffen wirklich wert? Ist die Aufrüstung der [...]
24 Oktober, 2016
1100 deklassierte U.S.-Atomziele
Die National Security Archives haben vor kurzem eine nun freigegebene Liste von US-Atomzielen aus dem Jahr 1956 veröffentlicht, die 1.100 Standorte in Osteuropa, Russland, China und Nordkorea umfasste. Die Karte unten zeigt alle 1.100 nuklearen Ziele aus dieser Liste. Wir haben uns mit NukeMap zusammengetan, um zu zeigen, wie katastrophal ein nuklearer Schlagabtausch zwischen den Vereinigten Staaten und Russland sein könnte.
12 Mai, 2016
Unbeabsichtigter Nuklearkrieg: eine Zeittafel der Beinaheunfälle
Die verheerendste militärische Bedrohung könnte von einem Atomkrieg ausgehen, der nicht absichtlich, sondern durch einen Unfall oder eine Fehlkalkulation ausgelöst wird. Unbeabsichtigt [...]
23 Februar, 2016
Unsere Inhalte
Our team
Meet our outreach team
We're a 100% remote team spread all across the western hemisphere.
Ben Cumming
Gus Docker
Maggie Munro
Taylor Jones
Kontaktieren Sie uns
Wir bringen Sie mit der richtigen Person in Kontakt.
Wir tun unser Bestes, um alle eingehenden Anfragen innerhalb von drei Werktagen zu beantworten. Unser Team ist über den ganzen Globus verteilt. Bitte nehmen Sie Rücksicht und denken Sie daran, dass die Person, die Sie kontaktieren, sich möglicherweise nicht in Ihrer Zeitzone befindet.
Bitte richten Sie Medienanfragen und Einladungen zu Vorträgen für Max Tegmark an press@futureoflife.org. Alle anderen Anfragen können an contact@futureoflife.orggesendet werden.