Zum Inhalt springen
Alle offenen Briefe

Versprechen zu tödlichen autonomen Waffen

Künstliche Intelligenz (KI) wird eine immer größere Rolle in militärischen Systemen spielen. Es besteht die dringende Möglichkeit und Notwendigkeit für Bürger, politische Entscheidungsträger und Führungskräfte, zwischen akzeptablen und inakzeptablen Anwendungen von KI zu unterscheiden. Vor diesem Hintergrund stimmen wir, die Unterzeichner, darin überein, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals an eine Maschine delegiert werden sollte.
Veröffentlicht
6 Juni, 2018

Künstliche Intelligenz (KI) wird eine immer größere Rolle in militärischen Systemen spielen. Es besteht die dringende Möglichkeit und Notwendigkeit für Bürger, politische Entscheidungsträger und Führungskräfte, zwischen akzeptablen und inakzeptablen Anwendungen von KI zu unterscheiden.

Vor diesem Hintergrund stimmen wir, die Unterzeichner, darin überein, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals an eine Maschine delegiert werden sollte. Dieser Standpunkt hat eine moralische Komponente: Wir sollten nicht zulassen, dass Maschinen Entscheidungen über das Leben eines Menschen treffen, für die anderen - oder niemandem - die Schuld zuzuschreiben ist. Es gibt außerdem ein starkes pragmatisches Argument: Tödliche autonome Waffen, die ohne menschliches Eingreifen Ziele auswählen und angreifen, würden für jedes Land und jeden Einzelnen eine gefährliche Destabilisierung bedeuten. Tausende KI-Forscher sind sich einig: Wenn man das Risiko, die Zurechenbarkeit und die Schwierigkeit, Menschenleben zu nehmen, beseitigte, würden tödliche autonome Waffen zu mächtigen Instrumenten der Gewalt und Unterdrückung. Das gilt insbesondere in Verbindung mit Überwachungssystemen und Datenspeichern. Darüber hinaus weisen tödliche autonome Waffen ganz andere Eigenschaften auf als nukleare, chemische und biologische Waffen, und die einseitigen Handlungen einzelner Gruppen könnten allzu leicht eine Wettrüsten auslösen, das die internationale Gemeinschaft mit ihren technischen Mitteln und globalen Regierungssystemen nicht länger kontrollieren könnte. Die Ächtung und Verhinderung eines solchen Wettrüstens sollte für die nationale und globale Sicherheit hohe Priorität haben.

Wir, die Unterzeichnenden, rufen Regierungen und Regierungsvertreter auf, eine Zukunft mit starken internationalen Normen, Vorschriften und Gesetzen gegen tödliche autonome Waffen zu schaffen. Da diese derzeit fehlen, entscheiden wir uns dafür, uns selbst an einen hohen Standard zu halten: Wir werden uns weder an der Entwicklung, der Herstellung, dem Handel oder dem Einsatz von tödlichen autonomen Waffen beteiligen noch werden wir diese unterstützen. Wir laden Technologieunternehmen und Organisationen sowie Führungskräfte, politische Entscheidungsträger und andere Einzelpersonen dazu ein, sich diesem Versprechen anzuschließen.


Unabhängig von diesem Versprechen haben 30 Länder der Vereinten Nationen die Forderung nach einem Verbot tödlicher autonomer Waffensysteme ausdrücklich befürwortet: Ägypten, Algerien, Argentinien, Bolivien, Brasilien, Chile, China, Costa Rica, Dschibuti, Ecuador, El Salvador, Ghana, Guatemala, Irak, Kolumbien, Jordanien, Kuba, Marokko, Mexiko, Namibia, Nicaragua, Österreich, Pakistan, Panama, Peru, Palästina, Uganda, Venezuela und Simbabwe.

 

Fügen Sie Ihre Unterschrift hinzu

Um Ihre Unterstützung zu bekunden, fügen Sie bitte unten Ihren Namen ein:

Vollständiger Name *

Dies ist eine Pflichtfrage


 

Weitere Informationen darüber, was auf dem Spiel steht, und über die laufenden Bemühungen bei der UNO finden Sie unter autonomousweapons.org und stopkillerrobots.org

Wenn Sie Fragen zu diesem Schreiben haben, wenden Sie sich bitte an das FLI.

Unterzeichner

Bislang wurde dieses Versprechen unterzeichnet von Organisationen und Personen.

Organisationen:

    Einzelpersonen:

      Mehr anzeigen
      OFFENE BRIEFE

      Verwandte Beiträge

      Wenn Ihnen dieser Artikel gefallen hat, könnten Sie auch diese interessieren:
      Unterzeichner
      2672

      Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

      Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
      14 Februar, 2024
      Unterzeichner
      Geschlossen

      KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

      Dieser gemeinsame offene Brief von Encode Justice und dem Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
      25 Oktober, 2023
      Unterzeichner
      31810

      Große KI-Experimente stoppen: Ein offener Brief

      Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu pausieren.
      22 März, 2023
      Unterzeichner
      998

      Offener Brief Gegen Rücksichtslose Nukleare Eskalation und Nutzung

      Der fürchterliche Krieg in der Ukraine hat das Potenzial, zu einem umfassenden nuklearen Konflikt zwischen der NATO und Russland zu eskalieren, der die größte Katastrophe in der Geschichte der Menschheit wäre. Es muss mehr getan werden, um eine solche Eskalation zu verhindern.
      18 Oktober, 2022

      Abonnieren Sie den Newsletter des Future of Life Institutes.

      Schließen Sie sich den über 40.000 anderen an, die regelmäßig über unsere Arbeit und Schwerpunktbereiche informiert werden.
      WolkeLupeKreuzPfeil-nach-oben
      linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram