Zum Inhalt springen
Aktuelle Updates von uns
Unter anderem: Anthropisches Drama; unsere neue Kampagne „Protect What's Human“ (Schütze das Menschliche); Kriegsspielsimulationen zeigen, dass KI zu erschreckenden Ergebnissen führt; und vieles mehr.
1 März, 2026
Unter anderem: Höhepunkte (und Enttäuschungen) von Davos 2026; ChatGPT-Werbung; Update zur Doomsday Clock; Trump-Wähler wollen KI-Regulierung; und mehr.
2 Februar, 2026
Darunter: unser KI-Sicherheitsindex für den Winter 2025, das neue KI-Sicherheitsgesetz von New York, die KI-Verordnung des Weißen Hauses, die Ergebnisse unseres Wettbewerbs „Keep the Future Human“ und vieles mehr!
31 Dezember, 2025
Hören Sie jeden Monat von uns
Schließen Sie sich den über 40.000 anderen Newsletter-Abonnenten an und erhalten Sie monatlich aktuelle Informationen über unsere Arbeit zur Sicherung unserer gemeinsamen Zukunft.

Ausgewählte Videos

Die besten aktuellen Inhalte von uns und unseren Partnern:
Mehr Videos

Ausgewählte Projekte

Informieren Sie sich über einige unserer aktuellen Projekte:
Kürzlich angekündigt

Die Pro-Human-KI-Erklärung

Eine bemerkenswerte überparteiliche Koalition führender Organisationen und prominenter Persönlichkeiten hat ihre Unterstützung für eine Reihe von Pro-Human-Prinzipien angekündigt, die als Leitlinien für unsere gemeinsame Zukunft mit KI dienen sollen.

Förderung eines globalen KI-Abkommens

Wir brauchen internationale Koordination, damit die Vorteile der KI weltweit zum Tragen kommen und sich nicht nur auf wenige Orte konzentrieren. Die Risiken fortschrittlicher KI bleiben nicht innerhalb der Landesgrenzen, sondern verbreiten sich weltweit und betreffen alle Menschen. Wir sollten auf einen internationalen Regulierungsrahmen hinarbeiten, der eine Konzentration der Vorteile auf wenige Orte verhindert und die globalen Risiken fortschrittlicher KI mindert.

Empfehlungen für den AI-Aktionsplan der USA

Der Vorschlag des Future of Life Institute für den KI-Aktionsplan von Präsident Trump. Unsere Empfehlungen zielen darauf ab, die Präsidentschaft vor dem Kontrollverlust über KI zu schützen, die Entwicklung von KI-Systemen frei von ideologischen oder sozialen Agenden zu fördern, amerikanische Arbeitnehmer vor Arbeitsplatzverlust und Ersatz zu schützen und vieles mehr.

KI-Konvergenz: Risiken am Schnittpunkt von KI zu nuklearen, biologischen und Cyber-Bedrohungen

Das Gefahrenpotenzial von KI-Systemen kann die Gefahrenpotenziale anderer Technologien verstärken – dies wird als KI-Konvergenz bezeichnet. Wir bieten politischen Entscheidungsträgern in den Vereinigten Staaten politische Expertise in drei wichtigen Konvergenzbereichen: Bio-, Nuklear- und Cybertechnologien.

Förderung eines globalen KI-Abkommens

Wir brauchen internationale Koordination, damit die Vorteile der KI weltweit zum Tragen kommen und sich nicht nur auf wenige Orte konzentrieren. Die Risiken fortschrittlicher KI bleiben nicht innerhalb der Landesgrenzen, sondern verbreiten sich weltweit und betreffen alle Menschen. Wir sollten auf einen internationalen Regulierungsrahmen hinarbeiten, der eine Konzentration der Vorteile auf wenige Orte verhindert und die globalen Risiken fortschrittlicher KI mindert.

Empfehlungen für den AI-Aktionsplan der USA

Der Vorschlag des Future of Life Institute für den KI-Aktionsplan von Präsident Trump. Unsere Empfehlungen zielen darauf ab, die Präsidentschaft vor dem Kontrollverlust über KI zu schützen, die Entwicklung von KI-Systemen frei von ideologischen oder sozialen Agenden zu fördern, amerikanische Arbeitnehmer vor Arbeitsplatzverlust und Ersatz zu schützen und vieles mehr.

KI-Konvergenz: Risiken am Schnittpunkt von KI zu nuklearen, biologischen und Cyber-Bedrohungen

Das Gefahrenpotenzial von KI-Systemen kann die Gefahrenpotenziale anderer Technologien verstärken – dies wird als KI-Konvergenz bezeichnet. Wir bieten politischen Entscheidungsträgern in den Vereinigten Staaten politische Expertise in drei wichtigen Konvergenzbereichen: Bio-, Nuklear- und Cybertechnologien.

Die Rolle von KI bei der Umverteilung von Macht

Hochentwickelte KI-Systeme werden die Wirtschaft und die Machtstrukturen in der Gesellschaft umgestalten. Sie bieten ein enormes Potenzial für Fortschritt und Innovation, bergen aber auch die Gefahr konzentrierter Kontrolle, nie dagewesener Ungleichheit und Entmündigung. Um sicherzustellen, dass KI dem Gemeinwohl dient, müssen wir widerstandsfähige Institutionen, wettbewerbsfähige Märkte und Systeme aufbauen, die die Vorteile breit verteilen.

Positive Zukunftsvisionen mit Technologie

Storytelling hat einen signifikanten Einfluss auf die Überzeugungen und Vorstellungen der Menschen über die mögliche Zukunft der Menschheit mit Technologie. Zwar warnen viele Erzählungen vor Dystopien, aber positive Zukunftsvisionen sind Mangelware. Wir versuchen Anreize für die Schaffung plausibler, erstrebenswerter und hoffnungsvoller Visionen einer Zukunft schaffen, die wir anstreben wollen.

Religiöse Perspektiven auf eine positive KI-Zukunft

Der Großteil der Weltbevölkerung gehört einer Religion an. Dennoch sind die Perspektiven dieser Religionen in den strategischen Diskussionen über künstliche Intelligenz weitgehend abwesend. Diese Initiative zielt darauf ab, religiöse Gruppen dabei zu unterstützen, ihre glaubensspezifischen Bedenken und Hoffnungen für eine Welt mit KI zu äußern und mit ihnen zusammenzuarbeiten, um Schäden abzuwenden und Vorteile zu realisieren.

Die Rolle von KI bei der Umverteilung von Macht

Hochentwickelte KI-Systeme werden die Wirtschaft und die Machtstrukturen in der Gesellschaft umgestalten. Sie bieten ein enormes Potenzial für Fortschritt und Innovation, bergen aber auch die Gefahr konzentrierter Kontrolle, nie dagewesener Ungleichheit und Entmündigung. Um sicherzustellen, dass KI dem Gemeinwohl dient, müssen wir widerstandsfähige Institutionen, wettbewerbsfähige Märkte und Systeme aufbauen, die die Vorteile breit verteilen.

Positive Zukunftsvisionen mit Technologie

Storytelling hat einen signifikanten Einfluss auf die Überzeugungen und Vorstellungen der Menschen über die mögliche Zukunft der Menschheit mit Technologie. Zwar warnen viele Erzählungen vor Dystopien, aber positive Zukunftsvisionen sind Mangelware. Wir versuchen Anreize für die Schaffung plausibler, erstrebenswerter und hoffnungsvoller Visionen einer Zukunft schaffen, die wir anstreben wollen.

Religiöse Perspektiven auf eine positive KI-Zukunft

Der Großteil der Weltbevölkerung gehört einer Religion an. Dennoch sind die Perspektiven dieser Religionen in den strategischen Diskussionen über künstliche Intelligenz weitgehend abwesend. Diese Initiative zielt darauf ab, religiöse Gruppen dabei zu unterstützen, ihre glaubensspezifischen Bedenken und Hoffnungen für eine Welt mit KI zu äußern und mit ihnen zusammenzuarbeiten, um Schäden abzuwenden und Vorteile zu realisieren.

Schütze das Menschliche

Wir bauen eine menschenfreundliche Bewegung für eine vernünftige Regulierung auf, um KI sicher und unter unserer Kontrolle zu halten. Den Auftakt bildet eine nationale Werbekampagne, die in den USA ausgestrahlt wird.

Kontrolle Umkehrung

Warum die superintelligenten KI-Agenten, die wir erschaffen wollen, Macht absorbieren, statt sie zu gewähren | Die neueste Studie von Anthony Aguirre.

Digital Media Accelerator

Der Digital Media Accelerator unterstützt digitale Inhalte von Urhebern, die das Bewusstsein und das Verständnis für aktuelle KI-Entwicklungen und -Themen fördern.

Schütze das Menschliche

Wir bauen eine menschenfreundliche Bewegung für eine vernünftige Regulierung auf, um KI sicher und unter unserer Kontrolle zu halten. Den Auftakt bildet eine nationale Werbekampagne, die in den USA ausgestrahlt wird.

Kontrolle Umkehrung

Warum die superintelligenten KI-Agenten, die wir erschaffen wollen, Macht absorbieren, statt sie zu gewähren | Die neueste Studie von Anthony Aguirre.

Digital Media Accelerator

Der Digital Media Accelerator unterstützt digitale Inhalte von Urhebern, die das Bewusstsein und das Verständnis für aktuelle KI-Entwicklungen und -Themen fördern.

KI-Community für Existenzielle Sicherheit

Eine Gemeinschaft, die sich dafür einsetzt, dass KI sicher entwickelt wird, und der sowohl Lehrkräfte als auch KI-Forscher angehören. Die Mitglieder sind eingeladen, an Sitzungen teilzunehmen, sich an einer Online-Community zu beteiligen und Reiseunterstützung zu beantragen.

Stipendien

Seit 2021 bieten wir Doktoranden- und Postdoktorandenstipendien für technische KI-Existenzsicherheit an. Im Jahr 2024 haben wir ein Doktorandenstipendium zum Thema "US-China AI Governance" eingerichtet.

RFPs, Wettbewerbe und Kooperationen

Aufforderungen zur Einreichung von Vorschlägen (RFP), öffentliche Wettbewerbe und Kooperationszuschüsse zur direkten Unterstützung von internen Projekten und Initiativen FLI .

KI-Community für Existenzielle Sicherheit

Eine Gemeinschaft, die sich dafür einsetzt, dass KI sicher entwickelt wird, und der sowohl Lehrkräfte als auch KI-Forscher angehören. Die Mitglieder sind eingeladen, an Sitzungen teilzunehmen, sich an einer Online-Community zu beteiligen und Reiseunterstützung zu beantragen.

Stipendien

Seit 2021 bieten wir Doktoranden- und Postdoktorandenstipendien für technische KI-Existenzsicherheit an. Im Jahr 2024 haben wir ein Doktorandenstipendium zum Thema "US-China AI Governance" eingerichtet.

RFPs, Wettbewerbe und Kooperationen

Aufforderungen zur Einreichung von Vorschlägen (RFP), öffentliche Wettbewerbe und Kooperationszuschüsse zur direkten Unterstützung von internen Projekten und Initiativen FLI .

Newsletter

Regelmäßige Updates zu den Technologien, die unsere Welt verändern

Jeden Monat informieren wir mehr als 40 000 Abonnenten über die neuesten Entwicklungen im Bereich der neuen Technologien, die unsere Welt verändern. Er enthält eine Zusammenfassung der wichtigsten Entwicklungen in unseren Schwerpunktbereichen und wichtige Updates zu unserer Arbeit.

Abonnieren Sie unseren Newsletter, um diese Highlights am Ende eines jeden Monats zu erhalten.

Neuere Ausgaben

Unter anderem: Anthropisches Drama; unsere neue Kampagne „Protect What's Human“ (Schütze das Menschliche); Kriegsspielsimulationen zeigen, dass KI zu erschreckenden Ergebnissen führt; und vieles mehr.
1 März, 2026
Unter anderem: Höhepunkte (und Enttäuschungen) von Davos 2026; ChatGPT-Werbung; Update zur Doomsday Clock; Trump-Wähler wollen KI-Regulierung; und mehr.
2 Februar, 2026
Darunter: unser KI-Sicherheitsindex für den Winter 2025, das neue KI-Sicherheitsgesetz von New York, die KI-Verordnung des Weißen Hauses, die Ergebnisse unseres Wettbewerbs „Keep the Future Human“ und vieles mehr!
31 Dezember, 2025
Außerdem: Der erste gemeldete Fall von KI-gestützter Spionage; warum Superintelligenz nicht kontrollierbar wäre; Erkenntnisse aus dem WebSummit und vieles mehr.
1 Dezember, 2025
Alle anzeigen

Neuester Inhalt

Die neuesten Inhalte, die wir veröffentlicht haben:

Ausgewählter Inhalt

Wie KI Krebs heilen kann – und wie nicht
Ein neuer Aufsatz von Dr. med. Emilia Javorsky, MPH, Leiterin des Futures-Programms
Führungskräfte aus der Tech-Branche haben versprochen, dass KI Krebs heilen wird. Die Realität ist komplexer – und gibt Anlass zu größerer Hoffnung. Dieser Aufsatz untersucht, in welchen Bereichen KI die Krebsforschung tatsächlich vorantreibt, wo die Versprechen hinter den Erwartungen zurückbleiben und was Forscher, politische Entscheidungsträger und Geldgeber als Nächstes tun müssen.
Lesen Sie den Aufsatz ->

Beiträge

Gouverneur DeSantis weist Behörden des Bundesstaates Florida an, mit Future of Life Institute zusammenzuarbeiten Future of Life Institute Familien vor den Gefahren der KI zu schützen

Im Rahmen der Zusammenarbeit werden ein Schulungsprogramm für Krisenberater und ein landesweites Formular zur Meldung von Schäden durch KI entwickelt, das auf gefährliche KI-Begleit-Apps abzielt.
9 März, 2026

Erklärung von Max Tegmark zum Ultimatum des Kriegsministeriums

„Unsere Sicherheit und unsere Grundrechte dürfen nicht der internen Politik eines Unternehmens ausgeliefert sein; der Gesetzgeber muss daran arbeiten, diese von der überwältigenden Mehrheit der Bevölkerung akzeptierten roten Linien gesetzlich zu verankern.“
27 Februar, 2026

Die US-Öffentlichkeit will eine Regulierung (oder ein Verbot) von KI auf Expertenebene und übermenschlicher KI

Drei Viertel der Erwachsenen in den USA wünschen sich strenge Vorschriften für die Entwicklung von KI und bevorzugen eine Aufsicht ähnlich wie bei Arzneimitteln anstelle einer "Selbstregulierung" der Industrie.
19 Oktober, 2025

Michael Kleinman reagiert auf die bahnbrechende Gesetzgebung zur KI-Sicherheit

Das FLI feiert einen Meilenstein für die KI-Sicherheitsbewegung und unterstreicht ihre wachsende Dynamik
3 Oktober, 2025
Alle anzeigen

Benutze deine Stimme

Beschütze das Menschliche
Große Technologieunternehmen sind dabei, immer leistungsfähigere, unkontrollierbare KI-Systeme zu entwickeln, die menschliche Arbeitskraft ersetzen sollen. Sie haben die Möglichkeit, etwas dagegen zu tun.
Werden Sie heute aktiv, um unsere Zukunft zu schützen:
Maßnahmen ergreifen ->

Unsere Geschichte

Seit 2014 arbeiten wir daran, die Zukunft der Menschheit zu sichern.

Erfahren Sie mehr über die Arbeit und die Erfolge des FLIseit seiner Gründung, einschließlich historischer Konferenzen, Zuschussprogramme und offener Briefe, die die Entwicklung der Technologie geprägt haben.

Erforschen Sie unsere Geschichte ->

Abonnieren Sie den FLI Newsletter

Schließen Sie sich einer Leserschaft von 40.000 Abonenten an, die regelmäßig über unsere Arbeit und Schwerpunktbereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram