Künstliche Intelligenz

Wie könnte KI unsere Welt verändern?
Tomorrow's AI ist eine Scrollytelling-Website mit 13 interaktiven, forschungsgestützten Szenarien, die zeigen, wie fortschrittliche KI die Welt verändern könnte - im Guten wie im Schlechten. Das Projekt verbindet Realismus mit Weitsicht, um sowohl die Herausforderungen einer positiven Zukunft als auch die Chancen zu veranschaulichen, wenn wir erfolgreich sind. Die Leser sind eingeladen, sich ihre eigene Meinung darüber zu bilden, welche Wege die Menschheit einschlagen sollte.
Künstliche Intelligenz ist auf dem Vormarsch. Unternehmen entwickeln zunehmend vielseitig einsetzbare KI-Systeme, die viele verschiedene Aufgaben erfüllen können. Große Sprachmodelle (engl.: large language models, LLMs) können Gedichte verfassen, Kochrezepte erstellen und Computercode schreiben. Von einigen dieser Modelle gehen bereits heute große Gefahren aus, z. B. die Erosion demokratischer Prozesse, das Grassieren von Verzerrungen und Fehlinformationen sowie ein Wettrüsten im Bereich der autonomen Waffen. Aber noch Schlimmeres zeichnet sich ab.
KI-Systeme werden nur noch leistungsfähiger werden. Unternehmen bemühen sich aktiv um die Schaffung einer "artificial general intelligence" (AGI, zu deutsch: allgemeine künstliche Intelligenz), die eine Vielzahl von Aufgaben genauso gut oder besser als der Mensch ausführen kann. Diese Unternehmen versprechen, dass diese Technologie ungeahnte Vorteile bringen wird, von der Krebsheilung bis zur Beseitigung der weltweiten Armut. Auf der anderen Seite glaubt mehr als die Hälfte der KI-Experten, dass AGI mit einer zehnprozentigen Wahrscheinlichkeit das Ende unserer Spezies bedeuten wird.
Diese Überzeugung hat nichts mit den bösen Robotern oder empfindungsfähigen Maschinen zu tun, die man aus der Science-Fiction kennt. Kurzfristig kann fortgeschrittene KI diejenigen, die Schaden anrichten wollen – zum Beispiel Bioterroristen – ermächtigen, indem sie es erlaubt, gewissenlos hochkomplexe Prozesse auszuführen.
Längerfristig sollten wir uns nicht auf eine bestimmte Art von Schaden fixieren, denn die Gefahr geht von höherer Intelligenz selbst aus. Denken Sie daran, wie Menschen weniger intelligente Tiere dominieren, ohne sich auf eine bestimmte Waffe zu verlassen, oder wie ein KI-Schachprogramm menschliche Spieler besiegt, ohne sich auf einen bestimmten Zug zu verlassen.
Das Militär könnte die Kontrolle über ein hochleistungsfähiges System verlieren, das auf Zerstörung programmiert ist, was verheerende Folgen hätte. Ein hochentwickeltes KI-System mit der Aufgabe, Unternehmensgewinne zu maximieren, könnte drastische, unvorhersehbare Methoden anwenden. Selbst eine KI, die auf altruistisches Handeln ausgelegt ist, könnte dieses Ziel auf zerstörerische Weise erreichen. Wir können derzeit nicht wissen, wie sich KI-Systeme verhalten werden, weil niemand versteht, wie sie funktionieren. Nicht einmal ihre Schöpfer.
KI-Sicherheit ist inzwischen als Anliegen im Mainstream angekommen. Experten und die breite Öffentlichkeit sind sich einig in ihrer Besorgnis über die entstehenden Risiken und die dringende Notwendigkeit, diese zu bewältigen. Aber Besorgnis allein wird nicht ausreichen. Wir brauchen politische Maßnahmen, die dabei helfen sicherzustellen, dass KI-Entwicklung das Leben aller verbessert – und nicht bloß die Gewinne einiger Unternehmen steigert. Außerdem brauchen wir angemessene Governance, einschließlich einer robusten Regulierung und fähigen Institutionen, die diese transformative Technologie weg von extremen Risiken und hin zum Wohl der Menschheit lenken können.
Andere Schwerpunktbereiche
Atomwaffen

Biotechnologie
Aktuelle Inhalte zu Künstlicher Intelligenz
Beiträge

Michael Kleinman reagiert auf die bahnbrechende Gesetzgebung zur KI-Sicherheit

Stehen wir kurz vor einer Intelligenzexplosion?

Die Auswirkungen von KI im Bildungswesen: Navigieren in der nahen Zukunft

Eine buddhistische Perspektive auf KI: Kultivierung der Freiheit der Aufmerksamkeit und der wahren Vielfalt in einer KI-Zukunft

Können wir eine gefährliche KI ausschalten?
AI-Sicherheitsindex veröffentlicht

Warum Sie sich für AI-Agenten interessieren sollten

Max Tegmark über das AGI-Manhattan-Projekt
Ressourcen

US-Bundesbehörden: Kartierung von AI-Aktivitäten

Katastrophale KI-Szenarien
Einführende Ressourcen zu KI-Risiken

Ressourcen zur AI-Politik
Positionspapiere
Leitfaden für Mitarbeiter zur KI-Politik: Kongressausschüsse und einschlägige Gesetzgebung
Empfehlungen für den AI-Aktionsplan der USA
Sicherheitsstandards zur Bereitstellung kontrollierbarer und nützlicher AI-Tools
FLI AI-Sicherheitsindex 2024
Videos (engl.)
Emilia Javorsky über die Risiken und Chancen der KI
Lethal AI Guide - Zukünftige AI-Gefahren
Axios Haus SXSW: Blick von oben Gespräch mit Future of Life Institute
wie man einer Drohne entkommt, wenn sie einen angreift
Podcasts

Offene Briefe
Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.
KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen
Große KI-Experimente stoppen: Ein offener Brief
Offener Brief zur vorausschauenden Regulierung von KI
Auszeichnungen für die Zukunft des Lebens




