Skip to content
All Open Letters

Open Letter on Autonomous Weapons German

Published
15 March, 2019


Dieser offene Brief wurde am 28. Juli bei der Eröffnung der IJCAI (International Joint Conference on Artificial Intelligence) Konferenz 2015 verlesen. Die Presseerklärung dazu ist für Journalisten über Toby Walsh erhältlich.

Das FLI unterstützt die Bereitstellung, die Unterschriftenprüfung und die Verwaltung der Liste der Unterzeichner. Bei administrativen Fragen zum Brief wenden Sie sich bitte an Max Tegmark.

AUTONOME WAFFEN: EIN OFFENER BRIEF VON KI- & ROBOTIK-FORSCHERN


Click here to see this page in other languages: English  Japanese   Russian

Autonome Waffen wählen und bekämpfen Ziele ohne menschliches Eingreifen. Dazu gehören z.B. bewaffnete Quadrokopter, die nach Menschen suchen und sie eliminieren, wenn sie bestimmte vordefinierte Kriterien erfüllen. Nicht dazu gehören dagegen Lenkraketen oder ferngesteuerte Drohnen, bei denen Menschen die Entscheidung über das Ziel treffen. Technologien mit künstlicher Intelligenz (KI) sind an einem Punkt angelangt, an dem die Entwicklung solcher Systeme — zumindest praktisch, wenn auch nicht legal — innerhalb von Jahren und nicht Jahrzehnten möglich ist. Und es steht einiges auf dem Spiel: Autonome Waffen wurden nach Schießpulver und Atomwaffen als die dritte Revolution in der Kriegsführung beschrieben.

Es wurden bereits viele Argumente für und gegen autonome Waffen vorgebracht, zum Beispiel dass es gut ist, dass menschliche Soldaten durch Maschinen ersetzt werden, da dadurch die Verluste für den Eigentümer der Waffen geringer werden. Dies ist gleichzeitig auch ein Argument gegen diese Waffen, da dadurch die Hemmschwelle gesenkt wird, in den Kampf einzutreten. Die Schlüsselfrage für die Menschheit ist heute, ob der globale Wettlauf um KI-Waffen gestartet oder sein Start verhindert werden sollte. Wenn eine der militärischen Großmächte die Entwicklung von KI-Waffen vorantreibt, ist ein globaler Rüstungswettlauf praktisch unvermeidlich. Und der Endpunkt dieser technologischen Reise ist offensichtlich: Autonome Waffen werden die Kalaschnikows von morgen werden. Anders als Atomwaffen benötigen sie keine kostspieligen und schwer zu beschaffenden Ausgangsstoffe, also werden sie allgegenwärtig und für alle maßgeblichen Militärmächte günstig zu produzierende Massenware werden. Es wird nur eine Frage der Zeit sein, bis sie auf dem Schwarzmarkt auftauchen. Dann werden sie bei Terroristen landen, oder bei Diktatoren, die ihr Volk besser kontrollieren wollen, oder bei Warlords, die ethnische Säuberungen durchführen wollen. Autonome Waffen sind ideal geeignet für Missionen wie Attentate, die Destabilisierung von Nationen, die Unterdrückung von Bevölkerungen und die selektive Tötung einer bestimmten ethnischen Gruppe. Wir glauben daher, dass ein Wettlauf des Militärs um die Nutzung von KI-Waffen der Menschheit nicht zu Gute kommen würde. KI kann Schlachtfelder auf viele Weisen sicherer für Menschen – insbesondere für Zivilisten – machen, ohne dabei neue Werkzeuge zum Töten zu erschaffen.

So wie die meisten Chemiker und Biologen kein Interesse am Bau chemischer oder biologischer Waffen haben, haben die meisten KI-Forscher kein Interesse daran, KI-Waffen zu bauen — und sie wollen nicht, dass andere der Reputation ihres Feldes schaden, indem sie genau dies tun und damit für eine öffentliche Gegenbewegung sorgen könnten, die den zukünftigen gesellschaftlichen Nutzen von KI einschränkt. Tatsächlich fanden internationale Abkommen, die zum erfolgreichen Verbot chemischer und biologischer Waffen führten, breite Unterstützung bei Chemikern und Biologen. In ähnlicher Weise unterstützten die meisten Physiker die Abkommen zum Verbot von weltraumbasierten Atomwaffen und Laser-Blendwaffen.

Zusammenfassend glauben wir, dass KI ein großes Potential hat, der Menschheit zu Gute zu kommen und dass dies auch das Ziel dieses Forschungsgebietes sein sollte. Einen militärischen Wettlauf um KI-Waffen zu beginnen ist eine schlechte Idee und sollte durch ein Verbot autonomer Angriffswaffen, die nicht von Menschen gesteuert werden, unterbunden werden.

Signatories

Bis jetzt wurde der offene Brief von 4.502 KI-/Robotik-Forschern und 26215 anderen unterschrieben. Dazu zählen:

KI-/Robotik-Forscher:


Stuart Russell Berkeley, Professor für Computer Science, Leiter des Center for Intelligent Systems, und Co-Autor des Standard-Lehrbuchs „Künstliche Intelligenz"
Nils J. Nilsson, Fachbereich Computer Science, Stanford University, Kumagai Professor für Engineering, Emeritus, ehemaliger Präsident der AAAI
Barbara J. Grosz Harvard University, Higgins Professor für Naturwissenschaften, ehemalige Präsidentin der AAAI, ehemalige Vorsitzende des Kuratoriums des IJCAI
Tom Mitchell CMU, ehemaliger Präsident der AAAI, Professor und Vorsitzender der Fakultät Maschinelles Lernen an der Fredkin University
Eric Horvitz, Microsoft Research, Geschäftsführer, Microsoft Research, ehemaliger Präsident der AAAI, Mitvorsitzender des Präsidialausschusses für langfristige KI-Zukunft des AAAI, Mitglied des ACM, IEEE CIS
Martha E. Pollack University of Michigan, Provost, Professorin für Computer Science & Professorin für Informatik, ehemalige Präsidentin der AAAI, Fellow von AAAS, ACM & AAAI
Henry Kautz, University of Rochester, Professor für Computer Science, ehemaliger Präsident der AAAI, Mitglied der ACM
Demis Hassabis, Google DeepMind, CEO
Yann LeCun, New York University & Facebook KI-Forscher, Professor für Computer Science & Leiter der KI-Forschung
Oren Etzioni, Allen Institute for AI, CEO, Mitglied von AAAI, ACM
Peter Norvig, Google, Research Director, Mitglied von AAAI, ACM
Geoffrey Hinton University of Toronto und Google, Emeritus Professor, AAAI Fellow
Yoshua Bengio, Université de Montréal, Professor
Erik Sandewall, Linköping University, Schweden, Professor für Computer Science, Mitglied von AAAI, ACM, Swedish Artificial Intelligence Society
Francesca Rossi Padova & Harvard, Professorin für Computer Science, IJCAI Präsidentin und Mitvorsitzende des AAAI Komitee zum Einfluss von KI und ethischen Fragen, Mitglied der ACM
Bart Selman Cornell, Professor für Computer Science, Mitvorsitzender des Präsidialausschusses für langfristige KI-Zukunft des AAAI, Mitglied der ACM
Joseph Y. Halpern, Cornell, Professor, Mitglied von AAAI, ACM, IEEE
Richard S. Sutton Univ. of Alberta, Professor für Computer Science und Autor des Lehrbuches „Reinforcement Learning: An Introduction“
Toby Walsh Univ. of New South Wales & NICTA, Professor für KI und Präsident der AI Access Foundation
David C. Parkes David Parkes, Harvard University, Dekan des Fachbereichs Computer Science, Vorsitzender ACM SIGecom, AAAI Fellow und Mitglied des Präsidialausschusses für langfristige KI-Zukunft des AAAI, Mitglied von ACM
Berthold K.P. Horn, MIT EECS & CSAIL, Professor EECS, Mitglied von AAAI, IEEE CS
Gerhard Brewka, Universität Leipzig, Professor für Intelligent Systems, ehemaliger Präsident des ECCAI, Mitglied von AAAI
John S Shawe-Taylor, University CollegeLondon, Professor für Computational Statistics und Machine Learning, Mitglied von IEEE CS
Hector Levesque, University of Toronto, Professor Emeritus, Ehemaliger Präsident des IJCAI, Mitglied von AAAI
Ivan Bratko, University of Ljubljana, Professor für Computer Science, ECCAI Fellow, Mitglied von SLAIS
Pierre Wolper, University of Liège, Professor für Computer Science, Mitglied von AAAI, ACM, IEEE CS
Bonnie Webber, University of Edinburgh, Professor für Informatik, Mitglied von AAAI, Association for Computatiznal Linguistics
Ernest Davis, New York University, Professor für Computer Science, Mitglied von AAAI, ACM
Mary-Anne Williams, University of Technology Sydney, Gründerin und Leiterin, Innovation and Enterprise Lab (The Magic Lab); ACM Kommitee Eugene L. Lawler Award für humanitäre Verdienste innerhalb von Computer Science und Informatik; Fellow, Australian Computer Society, Mitglied von AAAI, IEEE CIS, IEEE CS, IEEE RAS
Frank van Harmelen, VU University Amsterdam, Professor für Knowledge Representation, ECCAI Fellow, Mitglied von Academia Europeana
Csaba Szepesvari, University of Alberta, Professor für Computer Science, Mitglied von AAAI, ACM
Raja Chatila, CNRS, University Pierre and Marie Curie, Paris, Forscher für Robotik und KI, Mitglied von AAAI, ACM, IEEE CS, IEEE RAS, Präsident IEEE Robotics and Automation Society (Disclaimer: Meine Ansichten sind meine eigenen Ansichten)
Noel Sharkey, University of Sheffield und ICRAC, Emeritus Professor, Mitglied der British Computer Society, Institution of Engineering and Technology UK
Ramon Lopez de Mantaras Artificial Intelligence Research Institute, Spanish National Research Council, Leiter, ECCAI Fellow, ehemaliger Vorsitzender des IJCAI Kuratoriums, Preisträger des AAAI Robert S. Engelmore Memorial Lecture Award
Carla Brodley, Northeastern University, Dekanin und Professorin des College of Computer and Information Science, Mitglied von AAAI, ACM, IEEE CS
Nowe Ann, Vrije Universiteit Brussel, Professorin für Computer Science (AI), ECCAI Vorstandsmitglied, BNVKI Vorsitzende, Mitglied von IEEE CIS, IEEE CS, IEEE RAS
Stefanuk, Vadim, (Moskau) IITP RAS, RUPF, leitender Forscher, Professor für KI bei RUPF, ECCAI Fellow, stellvertretender Vorsitzender von RAAI
Bruno Siciliano, University of Naples Federico II, Professor für Robotik, Fellow von IEEE, ASME, IFAC, ehemaliger Präsident IEEE Robotics and Automation Society
Bernhard Schölkopf, Max-Planck-Institut für Intelligente Systeme, Direktor, Mitglied des ACM, IEEE CIS, der Vorstände von IMLS & NIPS
Mustafa Suleyman, Google DeepMind, Mitbegründer & Leiter von Applied AI
Juergen Schmidhuber, The Swiss AI Lab IDSIA, USI & SUPSI, Professor für Künstliche Intelligenz
Dileep George, Vicarious, Mitbegründer
D. Scott Phoenix, Vicarious, Mitbegründer
Ronald J. Brachman, Yahoo, leitender Wissenschaftler und Leiter der Yahoo Labs, Mitglied von AAAI, ACM, ehemaliger Präsident der AAAI, ehemaliger Sekretär und Schatzmeister der IJCAI, Inc., Fellow von AAAI, ACM, und IEEE.
Jay Tuck, Airtime Dubai, Journalist, Fernsehproduzent, Autor
Mike Hinchey, International Federation for Information Processing (IFIP) im Namen der IFIP Generalversammlung, Präsident, Mitglied von ACM, IEEE CIS, IEEE CS, IFIP

Other Endorsers:


Stephen Hawking Forschungsleiter am Department of Applied Mathematics and Theoretical Physics in Cambridge, 2012 Fundamental Physics Prize-Preisträger für seine Arbeit im Bereich der Quantenphysik
Elon Musk SpaceX, Tesla, Solar City
Steve Wozniak, Apple Inc., Mitbegründer, Mitglied von IEEE CS
Jaan Tallinn Mitbegründer von Skype, CSER und FLI
Frank Wilczek MIT, Professor für Physik, Nobelpreisträger für seine Arbeit zur starken Kernkraft
Max Tegmark MIT, Professor für Physik, Mitbegründer des FLI
Daniel C. Dennett, Tufts University, Professor, Co-Direktor, Center for Cognitive Studies, Mitglied von AAAI
Noam Chomsky MIT, Institute Professor Emeritus, Einführungsmitglied in die IEEE Intelligent Systems Hall of Fame, Träger der Franklin Medaille in Computer and Cognitive Science
Barbara Simons IBM Research (im Ruhestand), ehemalige Präsidentin ACM, ACM Fellow, AAAS Fellow
Stephen Goose Leiter der Human Rights Watch's Arms Division
Anthony Aguirre, UCSC, Professor für Physik, Mitbegründer des FLI
Lisa Randall, Harvard, Professor für Physik
Martin Rees Mitbegründer des CSER und Astrophysiker
Susan Holden Martin, Lifeboat Foundation, Beirat, Robotik/KI
Peter H. Diamandis, XPRIZE Foundation, Vorstand & CEO
Hon. Jean Jacques Blais, Gründungsvorstand, Pearson Peacekeeping Center, ehemaliger Verteidigungsminister von Kanada (1982-83)
Jennifer M Gidley, Präsident, World Futures Studies Federation, Zukunftsforscherin und Psychologin
Jack Dorsey, Twitter, Square, CEO

Die komplette Liste der Unterzeichner kann hier eingesehen werden.
Read More
OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram