Zum Inhalt springen
Schwerpunktbereich

Künstliche Intelligenz

Von Empfehlungsalgorithmen über Chatbots bis hin zu selbstfahrenden Autos – KI verändert unser Leben. Während die Technologie immer mehr an Bedeutung gewinnt, werden auch die damit verbundenen Risiken größer.
Spotlight

Wir dürfen KI nicht entwickeln, um Menschen zu ersetzen.

Ein neuer Essay von Anthony Aguirre, Geschäftsführer des Future of Life Institute

Die Menschheit steht kurz davor, eine künstliche allgemeine Intelligenz zu entwickeln, die unsere eigene übertrifft. Es ist an der Zeit, die Tore zu AGI und Superintelligenz zu schließen... bevor wir die Kontrolle über unsere Zukunft verlieren.

Ansicht der Website

Künstliche Intelligenz ist auf dem Vormarsch. Unternehmen entwickeln zunehmend vielseitig einsetzbare KI-Systeme, die viele verschiedene Aufgaben erfüllen können. Große Sprachmodelle (engl.: large language models, LLMs) können Gedichte verfassen, Kochrezepte erstellen und Computercode schreiben. Von einigen dieser Modelle gehen bereits heute große Gefahren aus, z. B. die Erosion demokratischer Prozesse, das Grassieren von Verzerrungen und Fehlinformationen sowie ein Wettrüsten im Bereich der autonomen Waffen. Aber noch Schlimmeres zeichnet sich ab.

KI-Systeme werden nur noch leistungsfähiger werden. Unternehmen bemühen sich aktiv um die Schaffung einer "artificial general intelligence" (AGI, zu deutsch: allgemeine künstliche Intelligenz), die eine Vielzahl von Aufgaben genauso gut oder besser als der Mensch ausführen kann. Diese Unternehmen versprechen, dass diese Technologie ungeahnte Vorteile bringen wird, von der Krebsheilung bis zur Beseitigung der weltweiten Armut. Auf der anderen Seite glaubt mehr als die Hälfte der KI-Experten, dass AGI mit einer zehnprozentigen Wahrscheinlichkeit das Ende unserer Spezies bedeuten wird.

Diese Überzeugung hat nichts mit den bösen Robotern oder empfindungsfähigen Maschinen zu tun, die man aus der Science-Fiction kennt. Kurzfristig kann fortgeschrittene KI diejenigen, die Schaden anrichten wollen – zum Beispiel Bioterroristen – ermächtigen, indem sie es erlaubt, gewissenlos hochkomplexe Prozesse auszuführen. 

Längerfristig sollten wir uns nicht auf eine bestimmte Art von Schaden fixieren, denn die Gefahr geht von höherer Intelligenz selbst aus. Denken Sie daran, wie Menschen weniger intelligente Tiere dominieren, ohne sich auf eine bestimmte Waffe zu verlassen, oder wie ein KI-Schachprogramm menschliche Spieler besiegt, ohne sich auf einen bestimmten Zug zu verlassen.

Das Militär könnte die Kontrolle über ein hochleistungsfähiges System verlieren, das auf Zerstörung programmiert ist, was verheerende Folgen hätte. Ein hochentwickeltes KI-System mit der Aufgabe, Unternehmensgewinne zu maximieren, könnte drastische, unvorhersehbare Methoden anwenden. Selbst eine KI, die auf altruistisches Handeln ausgelegt ist, könnte dieses Ziel auf zerstörerische Weise erreichen. Wir können derzeit nicht wissen, wie sich KI-Systeme verhalten werden, weil niemand versteht, wie sie funktionieren. Nicht einmal ihre Schöpfer.

KI-Sicherheit ist inzwischen als Anliegen im Mainstream angekommen. Experten und die breite Öffentlichkeit sind sich einig in ihrer Besorgnis über die entstehenden Risiken und die dringende Notwendigkeit, diese zu bewältigen. Aber Besorgnis allein wird nicht ausreichen. Wir brauchen politische Maßnahmen, die dabei helfen sicherzustellen, dass KI-Entwicklung das Leben aller verbessert – und nicht bloß die Gewinne einiger Unternehmen steigert. Außerdem brauchen wir angemessene Governance, einschließlich einer robusten Regulierung und fähigen Institutionen, die diese transformative Technologie weg von extremen Risiken und hin zum Wohl der Menschheit lenken können.

Schwerpunktbereiche

Andere Schwerpunktbereiche

Erkunden Sie die anderen Schwerpunktbereiche, die wir für besonders dringlich halten:

Atomwaffen

Fast achtzig Jahre nach ihrer Entwicklung sind die Risiken, die von Atomwaffen ausgehen, so hoch wie eh und je – und neue Forschungsergebnisse zeigen, dass die Auswirkungen eines Atomkriegs noch schlimmer wären als bisher angenommen.

Biotechnologie

Vom versehentlichen Freilassen künstlicher Erreger bis hin zu katastrophalen Folgen von gentechnischen Experimenten – die Gefahren der Biotechnologie sind zu groß, um blind voranzuschreiten.
Unsere Inhalte

Aktuelle Inhalte zu Künstlicher Intelligenz

Beiträge

Stehen wir kurz vor einer Intelligenzexplosion?

Die KI nähert sich immer mehr einer kritischen Schwelle. Jenseits dieser Schwelle lauern große Risiken - aber sie zu überschreiten ist nicht unvermeidlich.
21 März, 2025

Die Auswirkungen von KI im Bildungswesen: Navigieren in der nahen Zukunft

Was muss beachtet werden, um eine sichere, aber effektive Zukunft für KI in der Bildung und für die Sicherheit von Kindern im Internet zu schaffen?
13 Februar, 2025

Eine buddhistische Perspektive auf KI: Kultivierung der Freiheit der Aufmerksamkeit und der wahren Vielfalt in einer KI-Zukunft

Einige behaupten, dass die KI-gestützte Intelligenzrevolution die Menschheit auf einen Gleitpfad in eine utopische Zukunft mit nahezu müheloser Zufriedenheit und reibungslosen Wahlmöglichkeiten bringt. Wir sollten uns in Acht nehmen.
20 Januar, 2025

Können wir eine gefährliche KI ausschalten?

Neue Forschungsergebnisse bestätigen uralte Bedenken hinsichtlich der Schwierigkeit, leistungsstarke KI-Systeme einzuschränken.
27 Dezember, 2024

AI-Sicherheitsindex veröffentlicht

Die Future of Life Institute hat ihre erste Sicherheits-Scorecard für führende KI-Unternehmen veröffentlicht und festgestellt, dass viele sich nicht um Sicherheitsbelange kümmern, während einige erste kleine Schritte in die richtige Richtung unternommen haben.
11 Dezember, 2024

Warum Sie sich für AI-Agenten interessieren sollten

Leistungsstarke KI-Agenten werden demnächst auf den Markt kommen. Hier untersuchen wir die Auswirkungen.
4 Dezember, 2024

Max Tegmark über das AGI-Manhattan-Projekt

In einem neuen Bericht für den Kongress wird empfohlen, dass die USA ein "Manhattan-Projekt" zur Entwicklung künstlicher allgemeiner Intelligenz starten. Ein solches Projekt wäre ein Selbstmordrennen.
20 November, 2024

FLI Erklärung zum Memorandum des Weißen Hauses zur nationalen Sicherheit

Letzte Woche veröffentlichte das Weiße Haus ein National Security Memorandum über KI-Governance und Risikomanagement. Das NSM enthält Leitlinien [...]
28 Oktober, 2024

Ressourcen

US-Bundesbehörden: Kartierung von AI-Aktivitäten

Dieser Leitfaden gibt einen Überblick über die KI-Aktivitäten der US-Exekutive und konzentriert sich dabei auf Regulierungsbehörden, Budgets und Programme.
9 September, 2024

Katastrophale KI-Szenarien

Konkrete Beispiele dafür, wie KI-Entwicklung schief gehen kann
1 Februar, 2024

Einführende Ressourcen zu KI-Risiken

Warum sind Leute so besorgt über KI?
18 September, 2023
Stapel von Druckpapieren

Ressourcen zur AI-Politik

Die Ressourcen, die die durch KI entstehenden politischen Herausforderungen beschreiben und auf sie reagieren, sind ständig im Fluss. Diese Seite soll Ihnen helfen, auf dem Laufenden zu bleiben, indem sie einige der besten derzeit verfügbaren Ressourcen auflistet.
21 März, 2023

Positionspapiere

Leitfaden für Mitarbeiter zur KI-Politik: Kongressausschüsse und einschlägige Gesetzgebung

März 2025

Empfehlungen für den AI-Aktionsplan der USA

März 2025

Sicherheitsstandards zur Bereitstellung kontrollierbarer und nützlicher AI-Tools

Februar 2025

FLI AI-Sicherheitsindex 2024

Dezember 2024

Offene Briefe

Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
Geschlossen

KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

Dieser gemeinsame offene Brief von Encode Justice und dem Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
25 Oktober, 2023
Unterzeichner
31810

Große KI-Experimente stoppen: Ein offener Brief

Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu pausieren.
22 März, 2023
Unterzeichner
Geschlossen

Offener Brief zur vorausschauenden Regulierung von KI

Das Aufkommen künstlicher Intelligenz (KI) verspricht dramatische Veränderungen unserer wirtschaftlichen und sozialen Strukturen sowie des täglichen Lebens [...]
14 Juni, 2020

Auszeichnungen für die Zukunft des Lebens

Preis für die Zukunft des Lebens 2024

Drei führende Forscher und Wissenschaftler wurden von Future of Life Institute dafür geehrt, dass sie den Grundstein für moderne Ethik und Sicherheitsüberlegungen für künstliche Intelligenz und Computer gelegt haben.
Gewinner
James H. Moor, Batya Friedman, Steve Omohundro
Thema
Für die Schaffung der Grundlagen der modernen Computerethik und KI-Sicherheit

Abonnieren Sie den Newsletter des Future of Life Institutes.

Schließen Sie sich den über 40.000 anderen an, die regelmäßig über unsere Arbeit und Schwerpunktbereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram