Künstliche Intelligenz


Wir dürfen KI nicht entwickeln, um Menschen zu ersetzen.
Die Menschheit steht kurz davor, eine künstliche allgemeine Intelligenz zu entwickeln, die unsere eigene übertrifft. Es ist an der Zeit, die Tore zu AGI und Superintelligenz zu schließen... bevor wir die Kontrolle über unsere Zukunft verlieren.
Künstliche Intelligenz ist auf dem Vormarsch. Unternehmen entwickeln zunehmend vielseitig einsetzbare KI-Systeme, die viele verschiedene Aufgaben erfüllen können. Große Sprachmodelle (engl.: large language models, LLMs) können Gedichte verfassen, Kochrezepte erstellen und Computercode schreiben. Von einigen dieser Modelle gehen bereits heute große Gefahren aus, z. B. die Erosion demokratischer Prozesse, das Grassieren von Verzerrungen und Fehlinformationen sowie ein Wettrüsten im Bereich der autonomen Waffen. Aber noch Schlimmeres zeichnet sich ab.
KI-Systeme werden nur noch leistungsfähiger werden. Unternehmen bemühen sich aktiv um die Schaffung einer "artificial general intelligence" (AGI, zu deutsch: allgemeine künstliche Intelligenz), die eine Vielzahl von Aufgaben genauso gut oder besser als der Mensch ausführen kann. Diese Unternehmen versprechen, dass diese Technologie ungeahnte Vorteile bringen wird, von der Krebsheilung bis zur Beseitigung der weltweiten Armut. Auf der anderen Seite glaubt mehr als die Hälfte der KI-Experten, dass AGI mit einer zehnprozentigen Wahrscheinlichkeit das Ende unserer Spezies bedeuten wird.
Diese Überzeugung hat nichts mit den bösen Robotern oder empfindungsfähigen Maschinen zu tun, die man aus der Science-Fiction kennt. Kurzfristig kann fortgeschrittene KI diejenigen, die Schaden anrichten wollen – zum Beispiel Bioterroristen – ermächtigen, indem sie es erlaubt, gewissenlos hochkomplexe Prozesse auszuführen.
Längerfristig sollten wir uns nicht auf eine bestimmte Art von Schaden fixieren, denn die Gefahr geht von höherer Intelligenz selbst aus. Denken Sie daran, wie Menschen weniger intelligente Tiere dominieren, ohne sich auf eine bestimmte Waffe zu verlassen, oder wie ein KI-Schachprogramm menschliche Spieler besiegt, ohne sich auf einen bestimmten Zug zu verlassen.
Das Militär könnte die Kontrolle über ein hochleistungsfähiges System verlieren, das auf Zerstörung programmiert ist, was verheerende Folgen hätte. Ein hochentwickeltes KI-System mit der Aufgabe, Unternehmensgewinne zu maximieren, könnte drastische, unvorhersehbare Methoden anwenden. Selbst eine KI, die auf altruistisches Handeln ausgelegt ist, könnte dieses Ziel auf zerstörerische Weise erreichen. Wir können derzeit nicht wissen, wie sich KI-Systeme verhalten werden, weil niemand versteht, wie sie funktionieren. Nicht einmal ihre Schöpfer.
KI-Sicherheit ist inzwischen als Anliegen im Mainstream angekommen. Experten und die breite Öffentlichkeit sind sich einig in ihrer Besorgnis über die entstehenden Risiken und die dringende Notwendigkeit, diese zu bewältigen. Aber Besorgnis allein wird nicht ausreichen. Wir brauchen politische Maßnahmen, die dabei helfen sicherzustellen, dass KI-Entwicklung das Leben aller verbessert – und nicht bloß die Gewinne einiger Unternehmen steigert. Außerdem brauchen wir angemessene Governance, einschließlich einer robusten Regulierung und fähigen Institutionen, die diese transformative Technologie weg von extremen Risiken und hin zum Wohl der Menschheit lenken können.
Andere Schwerpunktbereiche

Atomwaffen

Biotechnologie
Aktuelle Inhalte zu Künstlicher Intelligenz
Beiträge

Stehen wir kurz vor einer Intelligenzexplosion?

Die Auswirkungen von KI im Bildungswesen: Navigieren in der nahen Zukunft

Eine buddhistische Perspektive auf KI: Kultivierung der Freiheit der Aufmerksamkeit und der wahren Vielfalt in einer KI-Zukunft

Können wir eine gefährliche KI ausschalten?

AI-Sicherheitsindex veröffentlicht

Warum Sie sich für AI-Agenten interessieren sollten

Max Tegmark über das AGI-Manhattan-Projekt

FLI Erklärung zum Memorandum des Weißen Hauses zur nationalen Sicherheit
Ressourcen

US-Bundesbehörden: Kartierung von AI-Aktivitäten

Katastrophale KI-Szenarien

Einführende Ressourcen zu KI-Risiken

Ressourcen zur AI-Politik
Positionspapiere

Leitfaden für Mitarbeiter zur KI-Politik: Kongressausschüsse und einschlägige Gesetzgebung

Empfehlungen für den AI-Aktionsplan der USA

Sicherheitsstandards zur Bereitstellung kontrollierbarer und nützlicher AI-Tools

FLI AI-Sicherheitsindex 2024
Videos (engl.)
Podcasts


Offene Briefe
Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.
KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen
Große KI-Experimente stoppen: Ein offener Brief
Offener Brief zur vorausschauenden Regulierung von KI
Auszeichnungen für die Zukunft des Lebens
