Zum Inhalt springen
Aktuelle Updates von uns
Plus: Angesichts der öffentlichen Kritik unterstützen KI-Milliardäre ein neues Super-PAC; unser neuer 100.000-Dollar-Kreativwettbewerb Keep the Future Human; KI von morgen; und mehr.
4 September, 2025
Außerdem: Aktuelles zu den EU-Leitlinien; das jüngste KI-Sicherheitsforum; wie KI das nukleare Risiko erhöht; und mehr.
1 August, 2025
Außerdem: Die OpenAI Files, ein gruseliges neues InsideAI-Video und mehr.
3 Juli, 2025
Hören Sie jeden Monat von uns
Schließen Sie sich den über 40.000 anderen Newsletter-Abonnenten an und erhalten Sie monatlich aktuelle Informationen über unsere Arbeit zur Sicherung unserer gemeinsamen Zukunft.

Ausgewählte Videos

Die besten aktuellen Inhalte von uns und unseren Partnern:
Mehr Videos

Ausgewählte Projekte

Informieren Sie sich über einige unserer aktuellen Projekte:
Kürzlich angekündigt

Kreativ-Wettbewerb: Keep The Future Human

Preise im Wert von mehr als 100.000 $ für kreative digitale Medien, die sich mit den Kerngedanken des Aufsatzes auseinandersetzen, ihnen helfen, ein breiteres Publikum zu erreichen und zum Handeln in der realen Welt motivieren.

FLI AI-Sicherheitsindex: Sommer 2025 Ausgabe

Sieben KI- und Governance-Experten bewerten die Sicherheitspraktiken von sechs führenden KI-Unternehmen für allgemeine Zwecke.

Empfehlungen für den AI-Aktionsplan der USA

Der Vorschlag des Future of Life Institute für den KI-Aktionsplan von Präsident Trump. Unsere Empfehlungen zielen darauf ab, die Präsidentschaft vor dem Kontrollverlust über KI zu schützen, die Entwicklung von KI-Systemen frei von ideologischen oder sozialen Agenden zu fördern, amerikanische Arbeitnehmer vor Arbeitsplatzverlust und Ersatz zu schützen und vieles mehr.

KI-Sicherheitsgipfel

Die Regierungen erkunden die Zusammenarbeit bei der Navigation in einer Welt mit fortschrittlicher KI. FLI steht ihnen mit Rat und Tat zur Seite.

FLI AI-Sicherheitsindex: Sommer 2025 Ausgabe

Sieben KI- und Governance-Experten bewerten die Sicherheitspraktiken von sechs führenden KI-Unternehmen für allgemeine Zwecke.

Empfehlungen für den AI-Aktionsplan der USA

Der Vorschlag des Future of Life Institute für den KI-Aktionsplan von Präsident Trump. Unsere Empfehlungen zielen darauf ab, die Präsidentschaft vor dem Kontrollverlust über KI zu schützen, die Entwicklung von KI-Systemen frei von ideologischen oder sozialen Agenden zu fördern, amerikanische Arbeitnehmer vor Arbeitsplatzverlust und Ersatz zu schützen und vieles mehr.

KI-Sicherheitsgipfel

Die Regierungen erkunden die Zusammenarbeit bei der Navigation in einer Welt mit fortschrittlicher KI. FLI steht ihnen mit Rat und Tat zur Seite.

Die Rolle von KI bei der Umverteilung von Macht

Hochentwickelte KI-Systeme werden die Wirtschaft und die Machtstrukturen in der Gesellschaft umgestalten. Sie bieten ein enormes Potenzial für Fortschritt und Innovation, bergen aber auch die Gefahr konzentrierter Kontrolle, nie dagewesener Ungleichheit und Entmündigung. Um sicherzustellen, dass KI dem Gemeinwohl dient, müssen wir widerstandsfähige Institutionen, wettbewerbsfähige Märkte und Systeme aufbauen, die die Vorteile breit verteilen.

Positive Zukunftsvisionen mit Technologie

Storytelling hat einen signifikanten Einfluss auf die Überzeugungen und Vorstellungen der Menschen über die mögliche Zukunft der Menschheit mit Technologie. Zwar warnen viele Erzählungen vor Dystopien, aber positive Zukunftsvisionen sind Mangelware. Wir versuchen Anreize für die Schaffung plausibler, erstrebenswerter und hoffnungsvoller Visionen einer Zukunft schaffen, die wir anstreben wollen.

Religiöse Perspektiven auf eine positive KI-Zukunft

Der Großteil der Weltbevölkerung gehört einer Religion an. Dennoch sind die Perspektiven dieser Religionen in den strategischen Diskussionen über künstliche Intelligenz weitgehend abwesend. Diese Initiative zielt darauf ab, religiöse Gruppen dabei zu unterstützen, ihre glaubensspezifischen Bedenken und Hoffnungen für eine Welt mit KI zu äußern und mit ihnen zusammenzuarbeiten, um Schäden abzuwenden und Vorteile zu realisieren.

Die Rolle von KI bei der Umverteilung von Macht

Hochentwickelte KI-Systeme werden die Wirtschaft und die Machtstrukturen in der Gesellschaft umgestalten. Sie bieten ein enormes Potenzial für Fortschritt und Innovation, bergen aber auch die Gefahr konzentrierter Kontrolle, nie dagewesener Ungleichheit und Entmündigung. Um sicherzustellen, dass KI dem Gemeinwohl dient, müssen wir widerstandsfähige Institutionen, wettbewerbsfähige Märkte und Systeme aufbauen, die die Vorteile breit verteilen.

Positive Zukunftsvisionen mit Technologie

Storytelling hat einen signifikanten Einfluss auf die Überzeugungen und Vorstellungen der Menschen über die mögliche Zukunft der Menschheit mit Technologie. Zwar warnen viele Erzählungen vor Dystopien, aber positive Zukunftsvisionen sind Mangelware. Wir versuchen Anreize für die Schaffung plausibler, erstrebenswerter und hoffnungsvoller Visionen einer Zukunft schaffen, die wir anstreben wollen.

Religiöse Perspektiven auf eine positive KI-Zukunft

Der Großteil der Weltbevölkerung gehört einer Religion an. Dennoch sind die Perspektiven dieser Religionen in den strategischen Diskussionen über künstliche Intelligenz weitgehend abwesend. Diese Initiative zielt darauf ab, religiöse Gruppen dabei zu unterstützen, ihre glaubensspezifischen Bedenken und Hoffnungen für eine Welt mit KI zu äußern und mit ihnen zusammenzuarbeiten, um Schäden abzuwenden und Vorteile zu realisieren.

Digital Media Accelerator

Der Digital Media Accelerator unterstützt digitale Inhalte von Urhebern, die das Bewusstsein und das Verständnis für aktuelle KI-Entwicklungen und -Themen fördern.

Die Zukunft menschlich gestalten

Warum und wie wir die Tore zu AGI und Superintelligenz schließen sollten, und was wir stattdessen bauen sollten | Ein neuer Essay von Anthony Aguirre, Geschäftsführer des FLI.

Engagement mehrerer Interessengruppen für eine sichere und prosperierende KI

Das FLI lanciert neue Stipendien, um Interessengruppen und die breite Öffentlichkeit für eine sichere und nützliche KI zu sensibilisieren und zu gewinnen.

Digital Media Accelerator

Der Digital Media Accelerator unterstützt digitale Inhalte von Urhebern, die das Bewusstsein und das Verständnis für aktuelle KI-Entwicklungen und -Themen fördern.

Die Zukunft menschlich gestalten

Warum und wie wir die Tore zu AGI und Superintelligenz schließen sollten, und was wir stattdessen bauen sollten | Ein neuer Essay von Anthony Aguirre, Geschäftsführer des FLI.

Engagement mehrerer Interessengruppen für eine sichere und prosperierende KI

Das FLI lanciert neue Stipendien, um Interessengruppen und die breite Öffentlichkeit für eine sichere und nützliche KI zu sensibilisieren und zu gewinnen.

KI-Community für Existenzielle Sicherheit

Eine Gemeinschaft, die sich dafür einsetzt, dass KI sicher entwickelt wird, und der sowohl Lehrkräfte als auch KI-Forscher angehören. Die Mitglieder sind eingeladen, an Sitzungen teilzunehmen, sich an einer Online-Community zu beteiligen und Reiseunterstützung zu beantragen.

Stipendien

Seit 2021 bieten wir Doktoranden- und Postdoktorandenstipendien für technische KI-Existenzsicherheit an. Im Jahr 2024 haben wir ein Doktorandenstipendium zum Thema "US-China AI Governance" eingerichtet.

RFPs, Wettbewerbe und Kooperationen

Aufforderungen zur Einreichung von Vorschlägen (RFP), öffentliche Wettbewerbe und Kooperationszuschüsse zur direkten Unterstützung von internen Projekten und Initiativen FLI .

KI-Community für Existenzielle Sicherheit

Eine Gemeinschaft, die sich dafür einsetzt, dass KI sicher entwickelt wird, und der sowohl Lehrkräfte als auch KI-Forscher angehören. Die Mitglieder sind eingeladen, an Sitzungen teilzunehmen, sich an einer Online-Community zu beteiligen und Reiseunterstützung zu beantragen.

Stipendien

Seit 2021 bieten wir Doktoranden- und Postdoktorandenstipendien für technische KI-Existenzsicherheit an. Im Jahr 2024 haben wir ein Doktorandenstipendium zum Thema "US-China AI Governance" eingerichtet.

RFPs, Wettbewerbe und Kooperationen

Aufforderungen zur Einreichung von Vorschlägen (RFP), öffentliche Wettbewerbe und Kooperationszuschüsse zur direkten Unterstützung von internen Projekten und Initiativen FLI .

Newsletter

Regelmäßige Updates zu den Technologien, die unsere Welt verändern

Jeden Monat informieren wir mehr als 40 000 Abonnenten über die neuesten Entwicklungen im Bereich der neuen Technologien, die unsere Welt verändern. Er enthält eine Zusammenfassung der wichtigsten Entwicklungen in unseren Schwerpunktbereichen und wichtige Updates zu unserer Arbeit.

Abonnieren Sie unseren Newsletter, um diese Highlights am Ende eines jeden Monats zu erhalten.

Neuere Ausgaben

Plus: Angesichts der öffentlichen Kritik unterstützen KI-Milliardäre ein neues Super-PAC; unser neuer 100.000-Dollar-Kreativwettbewerb Keep the Future Human; KI von morgen; und mehr.
4 September, 2025
Außerdem: Aktuelles zu den EU-Leitlinien; das jüngste KI-Sicherheitsforum; wie KI das nukleare Risiko erhöht; und mehr.
1 August, 2025
Außerdem: Die OpenAI Files, ein gruseliges neues InsideAI-Video und mehr.
3 Juli, 2025
Plus: Aktualisierungen zum Verhaltenskodex des EU-KI-Gesetzes, der Singapur-Konsens, offener Brief evangelikaler Führer und mehr.
31 Mai, 2025
Alle anzeigen

Neuester Inhalt

Die neuesten Inhalte, die wir veröffentlicht haben:

Ausgewählter Inhalt

Wir dürfen KI nicht entwickeln, um Menschen zu ersetzen.
Ein neuer Essay von Anthony Aguirre, Geschäftsführer des Future of Life Institute
Die Menschheit steht kurz davor, eine künstliche allgemeine Intelligenz zu entwickeln, die unsere eigene übertrifft. Es ist an der Zeit, die Tore zu AGI und Superintelligenz zu schließen... bevor wir die Kontrolle über unsere Zukunft verlieren.
Lesen Sie den Aufsatz ->

Beiträge

Stehen wir kurz vor einer Intelligenzexplosion?

Die KI nähert sich immer mehr einer kritischen Schwelle. Jenseits dieser Schwelle lauern große Risiken - aber sie zu überschreiten ist nicht unvermeidlich.
21 März, 2025

Die Auswirkungen von KI im Bildungswesen: Navigieren in der nahen Zukunft

Was muss beachtet werden, um eine sichere, aber effektive Zukunft für KI in der Bildung und für die Sicherheit von Kindern im Internet zu schaffen?
13 Februar, 2025

Kontext und Agenda für den KI-Aktionsgipfel 2025

Der AI Action Summit wird vom 10. bis 11. Februar 2025 in Paris stattfinden. Hier finden Sie die Tagesordnung und die wichtigsten Ergebnisse.
31 Januar, 2025

Eine buddhistische Perspektive auf KI: Kultivierung der Freiheit der Aufmerksamkeit und der wahren Vielfalt in einer KI-Zukunft

Einige behaupten, dass die KI-gestützte Intelligenzrevolution die Menschheit auf einen Gleitpfad in eine utopische Zukunft mit nahezu müheloser Zufriedenheit und reibungslosen Wahlmöglichkeiten bringt. Wir sollten uns in Acht nehmen.
20 Januar, 2025
Alle anzeigen

Benutze deine Stimme

Beschütze das Menschliche
Große Technologieunternehmen sind dabei, immer leistungsfähigere, unkontrollierbare KI-Systeme zu entwickeln, die menschliche Arbeitskraft ersetzen sollen. Sie haben die Möglichkeit, etwas dagegen zu tun.
Werden Sie heute aktiv, um unsere Zukunft zu schützen:
Maßnahmen ergreifen ->

Unser Team

Ein Team, das sich für die Zukunft des Lebens einsetzt.
Unser Team verfügt über ein breites Spektrum an Fachwissen und Erfahrung in Wissenschaft, Regierungstätigkeit und freier Wirtschaft. Als solches bieten wir Expertise in zahlreichen Disziplinen, vom maschinellem Lernen bis hin zur Medizin.
Treffen Sie unser Team
Offene Rollen

Unsere Geschichte

Seit 2014 arbeiten wir daran, die Zukunft der Menschheit zu sichern.

Erfahren Sie mehr über die Arbeit und die Erfolge des FLIseit seiner Gründung, einschließlich historischer Konferenzen, Zuschussprogramme und offener Briefe, die die Entwicklung der Technologie geprägt haben.

Erforschen Sie unsere Geschichte ->

Abonnieren Sie den FLI Newsletter

Schließen Sie sich einer Leserschaft von 40.000 Abonenten an, die regelmäßig über unsere Arbeit und Schwerpunktbereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram