Skip to content
All Open Letters

An Open Letter to the United Nations Convention on Certain Conventional Weapons (German)

Published
11 January, 2019

Ein offener Brief an die UN-Konvention bezüglich bestimmter konventioneller Waffen


Click here to see this page in other languages: English Chinese   Japanese   Russian

Wir als Unternehmen, die Technologien in den Bereichen künstliche Intelligenz und Robotik bauen, die wiederum für die Entwicklung autonomer Waffen umfunktioniert werden könnten, fühlen uns im besonderen Maße verantwortlich, folgende Warnung auszusprechen. Wir begrüßen die Entscheidung der UN-Konferenz zur Konvention über bestimmte konventionelle Waffen, eine Gruppe von Regierungsexperten für tödliche autonome Waffensysteme einzurichten. Viele unserer Forscher und Ingenieure möchten Ihren Beratungen unbedingt mit technischem Rat beiseite stehen.

Wir empfehlen die Ernennung des Botschafters Amandeep Singh Gill aus Indien zum Vorsitzenden der Regierungsexperten. Wir bitten die Hohen Vertragsparteien, inständig, hart daran zu arbeiten, Mittel und Wege zu finden, um ein Wettrüsten solcher Waffen zu verhindern, Bürger vor deren Missbrauch zu schützen und die destabilisierenden Effekte dieser Technologien zu vermeiden. Wir bedauern, dass das erste Treffen der Regierungsexpertengruppe, welches am 21. August 2017 hätte stattfinden sollen, abgesagt wurde, weil einige wenige Staaten es versäumt haben, ihre finanziellen Beiträge an die UN zu entrichten. Wir bitten die Hohen Vertragsparteien eindringlich darum, Ihre Bemühungen für das erste im November geplante Treffen der Regierungsexpertengruppe zu verdoppeln.

Tödliche autonome Waffen drohen, die dritte Revolution des Krieges in Gang zu setzen. Einmal entwickelt, werden sie es erlauben, bewaffnete Konflikte in einem größeren Ausmaß als je zuvor auszutragen, und schneller agieren, als es die Menschen sich vorstellen können. Diese Waffen können für terroristische Taten benutzt, von Despoten und Terroristen gegen unschuldige Bevölkerungen eingesetzt oder so gehackt werden, dass sie sich anders verhalten als geplant. Wir haben nicht viel Zeit zum Handeln. Wenn die Büchse der Pandora einmal geöffnet wurde, ist es schwer, sie wieder zu schließen. Wir bitten die Hohen Vertragsparteien deshalb inständig, Wege zu finden, um uns alle vor diesen Gefahren zu schützen.

Signatories

Read More
OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and focus areas.
View previous editions
cloudmagnifiercrossarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram