Unsere Mission
Wir wollen transformative Technologie lenken, sodass sie dem Leben zugutekommt und extreme Risiken vermeidet.
Wir glauben, der wichtigste Faktor für die Zukunftsaussichten des Lebens wird die Herangehensweise sein, mit der transformative Technologien entwickelt und eingesetzt werden. Deshalb haben wir es uns zur Aufgabe gemacht, dafür zu sorgen, dass sich diese Aussichten weiter verbessern.
Neueste Updates
Aktuelles
Kaliforniens bahnbrechendes KI-Sicherheitsgesetz, das die Öffentlichkeit schützen und gleichzeitig die Innovation sichern soll, wurde von der Legislative mit starker Unterstützung von Wählern, Gesetzgebern und Experten verabschiedet. Wird Gouverneur Newsom unterschreiben? Hier finden Sie ein kurzes Erklärungsvideo und ein FAQ.
Problembereiche
Die Risiken, auf die wir uns konzentrieren
Derzeit beschäftigen wir uns mit drei großen Risiken. Für sie alle ist die Entwicklung, der Einsatz und die Steuerung von transformativen Technologien ein Dreh- und Angelpunkt. Wir konzentrieren unsere Bemühungen darauf, die Auswirkungen dieser Technologien zu lenken.
Künstliche Intelligenz
Von Empfehlungsalgorithmen über Chatbots bis hin zu selbstfahrenden Autos – KI verändert unser Leben. Während die Technologie immer mehr an Bedeutung gewinnt, werden auch die damit verbundenen Risiken größer.
Künstliche Intelligenz
Biotechnologie
Vom versehentlichen Freilassen künstlicher Erreger bis hin zu katastrophalen Folgen von gentechnischen Experimenten—die Gefahren der Biotechnologie sind zu groß, um blind voranzuschreiten.
Biotechnologie
Atomwaffen
Fast achtzig Jahre nach ihrer Entwicklung sind die Risiken, die von Atomwaffen ausgehen, so hoch wie eh und je – und neue Forschungsergebnisse zeigen, dass die Auswirkungen eines Atomkriegs noch schlimmer wären als bisher angenommen.
Atomwaffen
Autonome Drohnen vom Typ UAV Kargu auf dem Campus des OSTIM Technopark in Ankara, Türkei - Juni 2020.
Unsere Arbeit
Wie wir diese Probleme angehen
Es gibt viele potenzielle Ansatzpunkte, um die Entwicklung und den Einsatz von transformativen Technologien zu steuern. Wir setzen an einer Reihe dieser Punkte an, um unsere Erfolgschancen zu erhöhen.
Politische Arbeit
Wir leisten politische Interessensvertretung in den Vereinigten Staaten, der Europäischen Union und den Vereinten Nationen.
Unsere politische ArbeitOutreach
Wir produzieren Bildungsmaterialien, die den öffentlichen Diskurs informieren und Menschen ermutigen sollen, sich zu engagieren.
Unsere Outreach-ArbeitVergabe von Förderung
Wir vergeben Fördergelder an Einzelpersonen und Organisationen, die an Projekten arbeiten, die unserem Mission vorantreiben.
Unsere FörderprogrammeVeranstaltungen
Wir versammeln führende Vertreter der einschlägigen Bereiche, um zu erörtern, wie die sichere Entwicklung und Nutzung leistungsstarker Technologien gewährleistet werden kann.
Unsere VeranstaltungenAusgewählte Projekte
Woran wir arbeiten
Informieren Sie sich über einige unserer aktuellen Projekte:
Kampf gegen Deepfakes
Das Jahr 2024 entwickelt sich schnell zum Jahr der Fakes. Als Teil einer wachsenden Koalition besorgter Organisationen fordert FLI Gesetzgeber auf, sinnvolle Schritte zu unternehmen, um die KI-getriebene Deepfake-Lieferkette zu unterbrechen.
Wettbewerb zu Visonen der Superintelligenz
Ein Wettbewerb für die besten Bildungsmaterialien zum Thema
Superintelligenz, die damit verbundenen Risiken und die Auswirkungen
dieser Technologie auf unsere Welt. 5 Preise zu je 10.000 $.
Religiöse Perspektiven auf eine positive KI-Zukunft
Der Großteil der Weltbevölkerung gehört einer Religion an. Dennoch sind die Perspektiven dieser Religionen in den strategischen Diskussionen über künstliche Intelligenz weitgehend abwesend. Diese Initiative zielt darauf ab, religiöse Gruppen dabei zu unterstützen, ihre glaubensspezifischen Bedenken und Hoffnungen für eine Welt mit KI zu äußern und mit ihnen zusammenzuarbeiten, um die Schäden abzuwenden und die Vorteile zu realisieren.
Der Brief der Ältesten zu existenzielle Bedrohungen
Die Ältesten, das Future of Life Institute und eine Reihe herausragender Persönlichkeiten des öffentlichen Lebens fordern die Staats- und Regierungschefs der Welt auf, sich dringend mit den anhaltenden Schäden und eskalierenden Risiken durch die Klimakrise, Pandemien, Atomwaffen und unkontrollierte künstliche Intelligenz auseinanderzusetzen.
Realisierung erstrebenswerter Zukunftsvisionen - Neue FLI-Fördermöglichkeiten
Wir stellen zwei neue Fördermöglichkeiten bereit, um die Forschung darüber zu unterstützen, wie künstliche Intelligenz auf sichere Weise genutzt werden kann, um die Welt zu einem besseren Ort zu machen.
KI-Konvergenz: Risiken am Schnittpunkt von KI und nuklearen, biologischen und Cyber-Bedrohungen
Das Gefahrenpotenzial von KI-Systemen kann die Gefahrenpotenziale anderer Technologien verstärken - dies wird als KI-Konvergenz bezeichnet. Wir bieten politischen Entscheidungsträgern in den Vereinigten Staaten politische Expertise in drei wichtigen Konvergenzbereichen: biologische, nukleare und Cybertechnologien.
Stärkung der Europäischen Verordnung über Künstliche Intelligenz
Zu unseren wichtigsten Empfehlungen gehören die Ausweitung des Geltungsbereichs des Gesetzes zur Regulierung von allgemeinen KI-Systemen, sowie die Ausweitung der Definition verbotener Manipulation auf alle Arten von Manipulationstechniken sowie auf Manipulationen, die gesellschaftlichen Schaden verursachen.
Aufklärung über tödliche autonome Waffen
Militärische KI-Anwendungen breiten sich rasch aus. Wir entwickeln Bildungsmaterial darüber, wie bestimmte Klassen von KI-gesteuerten Waffen der nationalen Sicherheit schaden und die Zivilisation destabilisieren können, wie etwa Waffen, bei denen Tötungsentscheidungen vollständig an Algorithmen delegiert werden.
Globale KI-Governance bei den UN
Unsere Beteiligung an der Arbeit der Vereinten Nationen erstreckt sich über mehrere Jahre und Initiativen, darunter die Roadmap for Digital Cooperation und der Global Digital Compact (GDC).
Worldbuilding-Wettbewerb
Das Future of Life Institute akzeptierte Bewerbungen von Teams aus aller Welt für ein Preisgeld von bis zu 100.000 $. Sie sollten Visionen einer plausiblen, erstrebenswerten Zukunft entwerfen, die starke künstliche Intelligenz beinhaltet.
Der Future of Life Award
Jedes Jahr wird dieser Preis an einen oder mehrere unbesungene Helden verliehen, die einen bedeutenden Beitrag zur Erhaltung der Zukunft des Lebens geleistet haben.
Alle Projekte anzeigen
Newsletter
Regelmäßige Updates zu den Technologien, die unsere Welt verändern
Jeden Monat informieren wir mehr als 41.000 Abonnenten über die neuesten Entwicklungen im Bereich neuer Technologien, die unsere Welt verändern. Der Newsletter enthält eine Zusammenfassung der wichtigsten Entwicklungen in unseren Problembereichen und wichtige Updates zu unserer Arbeit. Abonnieren Sie unseren Newsletter, um diese Highlights am Ende jeden Monats zu erhalten.
Future of Life Institute Newsletter: On SB 1047, Gov. Newsom Caves to Big Tech
A disappointing outcome for the AI safety bill, updates from UNGA, our $1.5 million grant for global risk convergence research, and more.
Maggie Munro
1 Oktober, 2024
Future of Life Institute Newsletter: Kaliforniens KI-Sicherheitsgesetz liegt auf dem Schreibtisch des Gouverneurs
Latest policymaking updates, OpenAI safety team reportedly halved, moving towards an AWS treaty, and more.
Maggie Munro
30 August, 2024
Future of Life Institute Newsletter: Neues 4 Millionen Dollar Förderprogramm!
Vermeidung von KI-bedingter Machtkonzentration, Zusammenarbeit zwischen Pindex und FLI, Bekanntgabe unserer neuesten Stipendiaten & ihrer Projekte und vieles mehr.
Maggie Munro
1 August, 2024
Frühere Ausgaben lesen
Unsere Inhalte
Neueste Beiträge
Die neuesten Beiträge, die wir veröffentlicht haben:
US House of Representatives call for legal liability on Deepfakes
Recent statements from the US House of Representatives are a reminder of the urgent threat deepfakes present to our society, especially as we approach the U.S. presidential election.
1 Oktober, 2024
Statement on the veto of California bill SB 1047
“The furious lobbying against the bill can only be reasonably interpreted in one way: these companies believe they should play by their own rules and be accountable to no one. This veto only reinforces that belief. Now is the time for legislation at the state, federal, and global levels to hold Big Tech to their commitments”
30 September, 2024
Panda vs. Eagle
FLI's Director of Policy on why the U.S. national interest is much better served by a cooperative than an adversarial strategy towards China.
27 September, 2024
The Future and the Artificial: An Islamic Perspective
"A positive future for a world with AI from an Islamic perspective is one in which the option to say no to the integration of AI in infrastructures, devices, products, services, institutions, and elsewhere, is preserved at individual and collective levels"
26 September, 2024
Alle Beiträge anzeigen
Positionspapiere
Die jüngsten Positionspapiere, die wir veröffentlicht haben:
Die Vision in die Tat umsetzen: Die Umsetzung der KI-Roadmap des US-Senats
June 2024
Empfohlene Änderungen an den Gesetzgebungsvorschlägen zu Deepfakes
Mai 2024
FLI Antwort an OMB: Informationsanfrage zur verantwortungsvollen Beschaffung von künstlicher Intelligenz in der Regierung
April 2024
Wettbewerb in der generativen KI: Future of Life Institute's Feedback zur Konsultation der Europäischen Kommission
March 2024
Alle Positionspapiere anzeigen
Future of Life Institute Podcast
Unsere neuesten Folgen:
Alle Episoden anzeigen