Zum Inhalt springen
Unsere Mission

Wir wollen transformative Technologie lenken, sodass sie dem Leben zugutekommt und extreme Risiken vermeidet.

Wir glauben, der wichtigste Faktor für die Zukunftsaussichten des Lebens wird die Herangehensweise sein, mit der transformative Technologien entwickelt und eingesetzt werden. Deshalb haben wir es uns zur Aufgabe gemacht, dafür zu sorgen, dass sich diese Aussichten weiter verbessern.

Aktuelles

Wir haben gerade unseren "KI-Sicherheitsindex 2024" veröffentlicht, in dem sieben KI- und Governance-Experten die Sicherheitspraktiken von sechs führenden KI-Unternehmen für allgemeine Zwecke bewerten. Sehen Sie sich die Scorecard, unsere wichtigsten Ergebnisse und die Methodik an.

Problembereiche

Die Risiken, auf die wir uns konzentrieren

Derzeit beschäftigen wir uns mit drei großen Risiken. Für sie alle ist die Entwicklung, der Einsatz und die Steuerung von transformativen Technologien ein Dreh- und Angelpunkt. Wir konzentrieren unsere Bemühungen darauf, die Auswirkungen dieser Technologien zu lenken.

Künstliche Intelligenz

Von Empfehlungsalgorithmen über Chatbots bis hin zu selbstfahrenden Autos – KI verändert unser Leben. Während die Technologie immer mehr an Bedeutung gewinnt, werden auch die damit verbundenen Risiken größer.
Künstliche Intelligenz

Biotechnologie

Vom versehentlichen Freilassen künstlicher Erreger bis hin zu katastrophalen Folgen von gentechnischen Experimenten – die Gefahren der Biotechnologie sind zu groß, um blind voranzuschreiten.
Biotechnologie

Atomwaffen

Fast achtzig Jahre nach ihrer Entwicklung sind die Risiken, die von Atomwaffen ausgehen, so hoch wie eh und je – und neue Forschungsergebnisse zeigen, dass die Auswirkungen eines Atomkriegs noch schlimmer wären als bisher angenommen.
Atomwaffen
Autonome Drohnen vom Typ UAV Kargu auf dem Campus des OSTIM Technopark in Ankara, Türkei - Juni 2020.

Unsere Arbeit

Wie wir diese Probleme angehen

Es gibt viele potenzielle Ansatzpunkte, um die Entwicklung und den Einsatz von transformativen Technologien zu steuern. Wir setzen an einer Reihe dieser Punkte an, um unsere Erfolgschancen zu erhöhen.

Politische Arbeit

Wir leisten politische Interessensvertretung in den Vereinigten Staaten, der Europäischen Union und den Vereinten Nationen.
Unsere politische Arbeit

Outreach

Wir produzieren Bildungsmaterialien, die den öffentlichen Diskurs informieren und Menschen ermutigen sollen, sich zu engagieren.
Unsere Outreach-Arbeit

Vergabe von Förderung

Wir vergeben Fördergelder an Einzelpersonen und Organisationen, die an Projekten arbeiten, die unserem Mission vorantreiben.
Unsere Förderprogramme

Veranstaltungen

Wir versammeln führende Vertreter der einschlägigen Bereiche, um zu erörtern, wie die sichere Entwicklung und Nutzung leistungsstarker Technologien gewährleistet werden kann.
Unsere Veranstaltungen
Ausgewähltes Projekt

Bewertung der Sicherheitspraktiken der führenden KI-Unternehmen

Die sich rasch verbessernden KI-Fähigkeiten haben das Interesse daran erhöht, wie Unternehmen die damit verbundenen Risiken melden, bewerten und zu mindern versuchen. Für den KI-Sicherheitsindex 2024 FLI wurde ein unabhängiges Gremium aus sieben angesehenen KI- und Governance-Experten einberufen, um die Sicherheitspraktiken von sechs führenden KI-Unternehmen in sechs kritischen Bereichen zu bewerten.

Den Index ansehen

Ausgewählte Projekte

Woran wir arbeiten

Informieren Sie sich über einige unserer aktuellen Projekte:

Kampf gegen Deepfakes

Das Jahr 2024 entwickelt sich schnell zum Jahr der Fakes. Als Teil einer wachsenden Koalition besorgter Organisationen fordert FLI Gesetzgeber auf, sinnvolle Schritte zu unternehmen, um die KI-getriebene Deepfake-Lieferkette zu unterbrechen.

Wettbewerb zu Visonen der Superintelligenz

Ein Wettbewerb für die besten Bildungsmaterialien zum Thema Superintelligenz, die damit verbundenen Risiken und die Auswirkungen dieser Technologie auf unsere Welt. Fünf Preise zu je 10.000 $.

Religiöse Perspektiven auf eine positive KI-Zukunft

Der Großteil der Weltbevölkerung gehört einer Religion an. Dennoch sind die Perspektiven dieser Religionen in den strategischen Diskussionen über künstliche Intelligenz weitgehend abwesend. Diese Initiative zielt darauf ab, religiöse Gruppen dabei zu unterstützen, ihre glaubensspezifischen Bedenken und Hoffnungen für eine Welt mit KI zu äußern und mit ihnen zusammenzuarbeiten, um Schäden abzuwenden und Vorteile zu realisieren.

Der Brief der Ältesten zu existenziellen Bedrohungen

Die Ältesten, das Future of Life Institute und eine Reihe herausragender Persönlichkeiten des öffentlichen Lebens fordern die Staats- und Regierungschefs der Welt auf, sich dringend mit den anhaltenden Schäden und eskalierenden Risiken durch die Klimakrise, Pandemien, Atomwaffen und unkontrollierte künstliche Intelligenz auseinanderzusetzen.

Realisierung erstrebenswerter Zukunftsvisionen - Neue FLI-Fördermöglichkeiten

Wir stellen zwei neue Fördermöglichkeiten bereit, um Forschung zur sicheren Nutzung von KI zu unterstützen und so die Welt zu einem besseren Ort zu machen.

KI-Konvergenz: Risiken am Schnittpunkt von KI zu nuklearen, biologischen und Cyber-Bedrohungen

Das Gefahrenpotenzial von KI-Systemen kann die Gefahrenpotenziale anderer Technologien verstärken – dies wird als KI-Konvergenz bezeichnet. Wir bieten politischen Entscheidungsträgern in den Vereinigten Staaten politische Expertise in drei wichtigen Konvergenzbereichen: Bio-, Nuklear- und Cybertechnologien.

Stärkung der Europäischen Verordnung über Künstliche Intelligenz

Zu unseren wichtigsten Empfehlungen gehören die Ausweitung des Geltungsbereichs des Gesetzes zur Regulierung von allgemeinen KI-Systemen, sowie die Ausweitung der Definition verbotener Manipulation auf alle Arten von Manipulationstechniken sowie auf Manipulationen, die gesellschaftlichen Schaden verursachen.

Aufklärung über tödliche autonome Waffen

Militärische KI-Anwendungen breiten sich rasch aus. Wir entwickeln Bildungsmaterial darüber, wie bestimmte Klassen von KI-gesteuerten Waffen der nationalen Sicherheit schaden und die Zivilisation destabilisieren können, wie etwa Waffen, bei denen Tötungsentscheidungen vollständig an Algorithmen delegiert werden.

Globale KI-Governance bei den UN

Unsere Beteiligung an der Arbeit der Vereinten Nationen erstreckt sich über mehrere Jahre und Initiativen, darunter die Roadmap for Digital Cooperation und der Global Digital Compact (GDC).

Worldbuilding-Wettbewerb

Das Future of Life Institute akzeptierte Bewerbungen von Teams aus aller Welt für ein Preisgeld von bis zu 100.000 $. Sie sollten Visionen einer plausiblen, erstrebenswerten Zukunft entwerfen, die starke künstliche Intelligenz beinhaltet.

Der Future of Life Award

Jedes Jahr wird dieser Preis an einen oder mehrere unbesungene Helden verliehen, die einen bedeutenden Beitrag zur Erhaltung der Zukunft des Lebens geleistet haben.
Alle Projekte anzeigen

Newsletter

Regelmäßige Updates zu den Technologien, die unsere Welt verändern

Jeden Monat informieren wir mehr als 41.000 Abonnenten über die neuesten Entwicklungen im Bereich neuer Technologien, die unsere Welt verändern. Der Newsletter enthält eine Zusammenfassung der wichtigsten Entwicklungen in unseren Problembereichen und wichtige Updates zu unserer Arbeit. Abonnieren Sie unseren Newsletter, um diese Highlights am Ende jeden Monats zu erhalten.

Future of Life Institute Newsletter: Werkzeug-KI > Unkontrollierbare AGI

Max Tegmark über AGI vs. Tool AI; Magazincover aus einer Zukunft mit Superintelligenz; machen Sie als Beta-Tester bei unserer neuen digitalen Erfahrung mit; und mehr.
2 Dezember, 2024

Future of Life Institute Newsletter: Veranschaulichung von Superintelligenz

Brauchen Sie eine Pause von den US-Wahlnachrichten? Entdecken Sie die Ergebnisse unseres 70.000-Dollar-Kreativwettbewerbs, neue KI-Richtlinien für die nationale Sicherheit aus dem Weißen Haus, Umfragen unter Jugendlichen zum Thema KI und vieles mehr.
1 November, 2024

Future of Life Institute Newsletter: SB 1047: Gouverneur Newsom gibt Big Tech nach

Ein enttäuschendes Ergebnis für das Gesetz über die Sicherheit von künstlicher Intelligenz, Neuigkeiten von der UNGA, unser 1,5-Millionen-Dollar-Zuschuss für die Forschung zur globalen Risikokonvergenz und mehr.
1 Oktober, 2024
Frühere Ausgaben lesen
Unsere Inhalte

Neueste Beiträge

Die neuesten Beiträge, die wir veröffentlicht haben:

Pariser AI-Sicherheitsfrühstück #4: Rumman Chowdhury

Die vierte Veranstaltung unserer Reihe "KI-Sicherheitsfrühstücke" mit Dr. Rumman Chowdhury über Algorithmus-Auditing, das Recht auf Reparatur von KI-Systemen und die KI-Sicherheits- und Aktionsgipfel.
19 Dezember, 2024

AI-Sicherheitsindex veröffentlicht

Die Future of Life Institute hat ihre erste Sicherheits-Scorecard für führende KI-Unternehmen veröffentlicht und festgestellt, dass viele sich nicht um Sicherheitsbelange kümmern, während einige erste kleine Schritte in die richtige Richtung unternommen haben.
11 Dezember, 2024

Preis für die Zukunft des Lebens 2024

Drei führende Forscher und Wissenschaftler wurden von Future of Life Institute dafür geehrt, dass sie den Grundstein für moderne Ethik und Sicherheitsüberlegungen für künstliche Intelligenz und Computer gelegt haben.
9 Dezember, 2024

Warum Sie sich für AI-Agenten interessieren sollten

Leistungsstarke KI-Agenten werden demnächst auf den Markt kommen. Hier untersuchen wir die Auswirkungen.
4 Dezember, 2024
Alle Beiträge anzeigen

Papiere

Die jüngsten von uns veröffentlichten Strategie- und Forschungspapiere:

FLI AI-Sicherheitsindex 2024

Dezember 2024

FLI Zwischenempfehlungen für den AI-Aktionsgipfel

November 2024

Feedback des wissenschaftlichen Gremiums der EU

November 2024

Kodifizierung des US AI Safety Institute (FAIIA vs. AIARA)

November 2024
Alle Beiträge anzeigen

Future of Life Institute Podcast

Unsere neuesten Folgen:
Alle Episoden anzeigen

Abonnieren Sie den Newsletter des Future of Life Institutes.

Schließen Sie sich 40.000+ anderen an, die regelmäßig über unsere Arbeit und unsere Problembereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram