Skip to content
All Open Letters

AI Principles German

Published
24 January, 2018

Die KI-Leitsätze von Asilomar

Diese Leitsätze wurden auf der Asilomar Konferenz 2017 (Videos hier) durch den hier beschriebenen Prozess beschlossen.

Click here to see this page in other languages:  English  Chinese    Japanese    Korean     Russian

Künstliche Intelligenz (KI, engl. artificial intelligence, AI) hat uns bereits nützliche Anwendungen geliefert, die jeden Tag von Menschen auf der ganzen Welt gebraucht werden. Ihre stetige Weiterentwicklung, gelenkt von den hier beschriebenen Grundsätzen, wird den Menschen in den kommenden Jahrzehnten und Jahrhunderten spektakuläre Möglichkeiten bieten, sich zu helfen und zu verbessern.

Forschungsthemen


1) Forschungsziel: Das Ziel von KI-Forschung sollte lauten, keine ungerichtete, sondern nützliche und wohltätige Intelligenz zu erschaffen.

2) Forschungsgelder: Investitionen in KI sollten immer auch solcher Forschung zugutekommen, die ihre wohltätige Nutzung sichert. Dazu gehört die Betrachtung schwieriger Fragen in Bereichen der Computerwissenschaft, Wirtschaft, Rechtswissenschaft, Ethik und Sozialwissenschaft:

  • Wie können wir zukünftige KI-Systeme so stabilisieren, dass sie tun, was wir wollen, ohne dass sie Fehlfunktionen bekommen oder gehackt werden?
  • Wie können wir unseren Wohlstand durch Automation vergrößern und dabei die Bestimmung der Menschheit aufrechterhalten und ihre Ressourcen schützen?
  • Wie können wir unser Rechtssystem fairer und effizienter gestalten, sodass es mit der KI-Entwicklung Schritt halten und auf entsprechende Risiken eingehen kann?
  • Mit welchem Wertesystem sollen KIs ausgestattet werden und wie soll ihr rechtlicher und ethischer Status aussehen?

3) Verbindung von Wissenschaft und Politik: Es sollte einen konstruktiven und gesunden Austausch zwischen KI-Forschern und Entscheidungsträgern geben.

4) Forschungskultur: Zwischen KI-Forschern und -Entwicklern sollte eine Kultur aus Kooperation, Vertrauen und Transparenz gepflegt werden.

5) Vermeidung eines Wettlaufs: Teams, die an KI-Systemen arbeiten, sollten aktiv kooperieren, damit nicht an Sicherheitsstandards gespart wird.

Ethik und Werte


6) Sicherheit: KI-Systeme sollten während ihrer gesamten Funktionszeit sicher sein, und dies soweit anwendbar, möglichst auch nachweislich.

7) Transparenz bei Fehlfunktionen: Falls ein KI-System Schaden anrichtet, muss es möglich sein, die Ursache ermitteln zu können.

8) Transparenz bei Rechtsprechung: Bei der Einbindung autonomer Systeme in jegliche entscheidungsfindenden Prozesse der Rechtsprechung sollten diese Prozesse nachvollziehbar und von einer kompetenten menschlichen Autorität überprüfbar sein.

9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.

10) Wertausrichtung: Stark autonome KI-Systeme sollten so entwickelt werden, dass ihre Ziele und Verhaltensweisen während des Betriebs unter fester Gewissheit auf menschliche Werte ausgerichtet sind.

11) Menschliche Werte: KI-Systeme sollten so entwickelt und bedient werden, dass sie mit den Idealen der Menschenwürde, Menschenrechten, Freiheiten und kultureller Vielfalt kompatibel sind.

12) Privatsphäre: Im Hinblick auf die Fähigkeit von KIs, Daten zu analysieren und weiterzuverarbeiten, sollten Menschen das Recht haben, Zugriff auf ihre generierten Daten zu haben und in der Lage sein, sie zu verwalten und zu kontrollieren.

13) Freiheit und Privatheit: Die Anwendung von KIs auf persönliche Daten darf die tatsächlichen oder wahrgenommenen Freiheiten der Menschen nicht auf unangemessene Weise einschränken.

14) Geteilter Nutzen: KI-Technologien sollten so vielen Menschen wie möglich dienen und nutzen.

15) Geteilter Wohlstand: Der wirtschaftliche Wohlstand, der von KIs geschaffen wird, sollte breit verteilt werden, sodass er der ganzen Menschheit nutzt.

16) Menschliche Kontrolle: Wenn es um Aufgaben geht, die von Menschen erdacht worden sind, sollten Menschen bestimmen können, ob und inwiefern Entscheidungen an KI-Systeme delegiert werden können.

17) Kein Umsturz: Die Macht, die durch die Kontrolle hochentwickelter KI-Systeme gewährt wird, sollte die sozialen und bürgerlichen Prozesse, auf denen das Wohlergehen der Gesellschaft beruht, respektieren und verbessern, aber nicht untergraben.

18) KI-Wettrüsten: Ein Wettrüsten von tödlichen autonomen Waffen sollte vermieden werden.

Längerfristige Probleme


19) Vorsicht bei der Leistungsfähigkeit: Da es hier keinen Konsens gibt, sollten wir es vermeiden starke Annahmen zu machen, wenn es um die Obergrenzen zukünftiger KI-Leistungen geht.

20) Tragweite: Fortgeschrittene KI könnte zu weitreichenden Veränderungen für das Leben auf der Erde führen und sollte deshalb mit angemessener Sorgfalt und ausreichenden Ressourcen geplant und verwaltet werden.

21) Risiken: Besonders, wenn es um existenzielle oder katastrophale Risiken geht, die von KIs ausgehen, müssen Planung und Entschärfungsmaßnahmen entsprechend dem zu erwartenden Ausmaß getroffen werden.

22) Rekursive Selbstverbesserung: KI-Systeme, die entwickelt wurden, sich selbst rekursiv zu verbessern oder zu duplizieren, sodass eine rasante Qualitäts- oder Quantitätssteigerung zu erwarten ist, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.

23) Allgemeinwohl: Superintelligenz sollte immer entwickelt werden, um weithin akzeptierten ethischen Idealen und der Menschheit als Ganzem zu dienen, nicht bloß einem Staat oder einer Organisation.


Bisher wurden diese Leitsätze von 1273 KI/Robotik-Forschern und 2541 weiteren Menschen unterzeichnet. Erfahren Sie hier, wie diese Leitsätze entstanden sind und diskutieren Sie hier mit.

Die vollständige Liste der Unterzeichner finden Sie hier.

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram