Asilomar AI-Grundsätze
Diese Grundsätze wurden in Verbindung mit der Asilomar-Konferenz 2017(Videos hier) im Rahmen des hier beschriebenen Prozesses entwickelt.
Klicken Sie hier, um diese Seite in anderen Sprachen zu lesen: Chinesisch Deutsch Japanisch Koreanisch Russisch
Künstliche Intelligenz hat bereits nützliche Werkzeuge hervorgebracht, die von Menschen auf der ganzen Welt tagtäglich genutzt werden. Ihre weitere Entwicklung, die sich an den folgenden Grundsätzen orientiert, wird in den kommenden Jahrzehnten und Jahrhunderten erstaunliche Möglichkeiten bieten, den Menschen zu helfen und sie zu stärken.
Forschungsthemen
1) Forschungsziel: Das Ziel der KI-Forschung sollte es sein, keine ungerichtete Intelligenz, sondern nützliche Intelligenz zu schaffen.
2) Finanzierung der Forschung: Investitionen in die KI sollten mit der Finanzierung von Forschungsarbeiten einhergehen, die den sinnvollen Einsatz der KI gewährleisten, einschließlich heikler Fragen in den Bereichen Informatik, Wirtschaft, Recht, Ethik und Sozialkunde, wie z. B.:
- Wie können wir künftige KI-Systeme so robust machen, dass sie das tun, was wir wollen, ohne zu versagen oder gehackt zu werden?
- Wie können wir unseren Wohlstand durch Automatisierung steigern und gleichzeitig die Ressourcen und Ziele der Menschen erhalten?
- Wie können wir unsere Rechtssysteme aktualisieren, um fairer und effizienter zu werden, mit der KI Schritt zu halten und die mit der KI verbundenen Risiken zu bewältigen?
- An welchen Werten sollte sich die KI orientieren, und welchen rechtlichen und ethischen Status sollte sie haben?
3) Verbindung zwischen Wissenschaft und Politik: Es sollte einen konstruktiven und gesunden Austausch zwischen KI-Forschern und politischen Entscheidungsträgern geben.
4) Forschungskultur: Unter Forschern und Entwicklern von KI sollte eine Kultur der Zusammenarbeit, des Vertrauens und der Transparenz gefördert werden.
5) Vermeidung von Wettrennen: Teams, die KI-Systeme entwickeln, sollten aktiv zusammenarbeiten, um ein Abweichen von den Sicherheitsstandards zu vermeiden.
Ethik und Werte
6) Sicherheit: KI-Systeme sollten während ihrer gesamten Betriebsdauer sicher und geschützt sein, und zwar nachweislich, wo dies möglich und machbar ist.
7) Fehlertransparenz: Wenn ein KI-System Schaden anrichtet, sollte es möglich sein, die Gründe dafür zu ermitteln.
8) Richterliche Transparenz: Jede Beteiligung eines autonomen Systems an gerichtlichen Entscheidungen sollte eine zufriedenstellende Erklärung liefern, die von einer zuständigen menschlichen Behörde überprüft werden kann.
9) Verantwortung: Die Entwickler und Konstrukteure fortschrittlicher KI-Systeme sind an den moralischen Auswirkungen ihrer Nutzung, ihres Missbrauchs und ihrer Handlungen beteiligt und haben die Verantwortung und die Möglichkeit, diese Auswirkungen zu gestalten.
10) Werteausrichtung: Hochgradig autonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten während ihres gesamten Betriebs mit menschlichen Werten in Einklang gebracht werden können.
11) Menschliche Werte: KI-Systeme sollten so konzipiert und betrieben werden, dass sie mit den Idealen der Menschenwürde, der Rechte und Freiheiten sowie der kulturellen Vielfalt vereinbar sind.
12) Persönliche Privatsphäre: Die Menschen sollten das Recht haben, auf die von ihnen erzeugten Daten zuzugreifen, sie zu verwalten und zu kontrollieren, da KI-Systeme die Möglichkeit haben, diese Daten zu analysieren und zu nutzen.
13) Freiheit und Privatsphäre: Die Anwendung von KI auf personenbezogene Daten darf die tatsächliche oder gefühlte Freiheit der Menschen nicht unangemessen einschränken.
14) Gemeinsamer Nutzen: KI-Technologien sollten so vielen Menschen wie möglich zugute kommen und sie befähigen.
15) Geteilter Wohlstand: Der durch KI geschaffene wirtschaftliche Wohlstand sollte auf breiter Basis geteilt werden, damit die gesamte Menschheit davon profitiert.
16) Menschliche Kontrolle: Der Mensch sollte entscheiden, wie und ob er Entscheidungen an KI-Systeme delegiert, um von ihm gewählte Ziele zu erreichen.
17) Nicht-Subversion: Die durch die Kontrolle hochentwickelter KI-Systeme übertragene Macht sollte die sozialen und staatsbürgerlichen Prozesse, von denen das Wohlergehen der Gesellschaft abhängt, respektieren und verbessern, anstatt sie zu untergraben.
18) KI-Wettrüsten: Ein Wettrüsten mit tödlichen autonomen Waffen sollte vermieden werden.
Längerfristige Probleme
19) Fähigkeiten Vorsicht: Da es keinen Konsens gibt, sollten wir starke Annahmen über Obergrenzen für zukünftige KI-Fähigkeiten vermeiden.
20) Wichtigkeit: Fortgeschrittene künstliche Intelligenz könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bedeuten und sollte mit angemessener Sorgfalt und Ressourcen geplant und gesteuert werden.
21) Risiken: Die von KI-Systemen ausgehenden Risiken, insbesondere katastrophale oder existenzielle Risiken, müssen entsprechend ihrer erwarteten Auswirkungen geplant und gemindert werden.
22) Rekursive Selbstverbesserung: KI-Systeme, die für eine rekursive Selbstverbesserung oder Selbstreplikation in einer Weise konzipiert sind, die zu einer rasch steigenden Qualität oder Quantität führen könnte, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.
23) Gemeinwohl: Superintelligenz sollte nur im Dienste weithin geteilter ethischer Ideale und zum Nutzen der gesamten Menschheit und nicht nur eines Staates oder einer Organisation entwickelt werden.
Tragen Sie Ihren Namen in die Liste ein
Korrekturen der Unterschrift
Unterzeichner
KI/Robotik-Forscher:
Andere Befürworter:
Wie funktioniert die Überprüfung?
- URL der Erklärung - Diese Person hat eine öffentliche Erklärung zur Unterzeichnung des offenen Briefes abgegeben, die online eingesehen werden kann.