Zum Inhalt springen
Alle offenen Briefe

Asilomar AI-Grundsätze

Die Asilomar AI Principles, die von FLI koordiniert und auf der Konferenz Beneficial AI 2017 entwickelt wurden, sind eine der ersten und einflussreichsten Gruppen von KI-Governance-Prinzipien.
Veröffentlicht
11 August, 2017

Diese Grundsätze wurden in Verbindung mit der Asilomar-Konferenz 2017(Videos hier) im Rahmen des hier beschriebenen Prozesses entwickelt.

Klicken Sie hier, um diese Seite in anderen Sprachen zu lesen:  Chinesisch    Deutsch Japanisch    Koreanisch     Russisch

Künstliche Intelligenz hat bereits nützliche Werkzeuge hervorgebracht, die von Menschen auf der ganzen Welt tagtäglich genutzt werden. Ihre weitere Entwicklung, die sich an den folgenden Grundsätzen orientiert, wird in den kommenden Jahrzehnten und Jahrhunderten erstaunliche Möglichkeiten bieten, den Menschen zu helfen und sie zu stärken.

Forschungsthemen

1) Forschungsziel: Das Ziel der KI-Forschung sollte es sein, keine ungerichtete Intelligenz, sondern nützliche Intelligenz zu schaffen.

2) Finanzierung der Forschung: Investitionen in die KI sollten mit der Finanzierung von Forschungsarbeiten einhergehen, die den sinnvollen Einsatz der KI gewährleisten, einschließlich heikler Fragen in den Bereichen Informatik, Wirtschaft, Recht, Ethik und Sozialkunde, wie z. B.:

  • Wie können wir künftige KI-Systeme so robust machen, dass sie das tun, was wir wollen, ohne zu versagen oder gehackt zu werden?
  • Wie können wir unseren Wohlstand durch Automatisierung steigern und gleichzeitig die Ressourcen und Ziele der Menschen erhalten?
  • Wie können wir unsere Rechtssysteme aktualisieren, um fairer und effizienter zu werden, mit der KI Schritt zu halten und die mit der KI verbundenen Risiken zu bewältigen?
  • An welchen Werten sollte sich die KI orientieren, und welchen rechtlichen und ethischen Status sollte sie haben?

3) Verbindung zwischen Wissenschaft und Politik: Es sollte einen konstruktiven und gesunden Austausch zwischen KI-Forschern und politischen Entscheidungsträgern geben.

4) Forschungskultur: Unter Forschern und Entwicklern von KI sollte eine Kultur der Zusammenarbeit, des Vertrauens und der Transparenz gefördert werden.

5) Vermeidung von Wettrennen: Teams, die KI-Systeme entwickeln, sollten aktiv zusammenarbeiten, um ein Abweichen von den Sicherheitsstandards zu vermeiden.

Ethik und Werte

6) Sicherheit: KI-Systeme sollten während ihrer gesamten Betriebsdauer sicher und geschützt sein, und zwar nachweislich, wo dies möglich und machbar ist.

7) Fehlertransparenz: Wenn ein KI-System Schaden anrichtet, sollte es möglich sein, die Gründe dafür zu ermitteln.

8) Richterliche Transparenz: Jede Beteiligung eines autonomen Systems an gerichtlichen Entscheidungen sollte eine zufriedenstellende Erklärung liefern, die von einer zuständigen menschlichen Behörde überprüft werden kann.

9) Verantwortung: Die Entwickler und Konstrukteure fortschrittlicher KI-Systeme sind an den moralischen Auswirkungen ihrer Nutzung, ihres Missbrauchs und ihrer Handlungen beteiligt und haben die Verantwortung und die Möglichkeit, diese Auswirkungen zu gestalten.

10) Werteausrichtung: Hochgradig autonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten während ihres gesamten Betriebs mit menschlichen Werten in Einklang gebracht werden können.

11) Menschliche Werte: KI-Systeme sollten so konzipiert und betrieben werden, dass sie mit den Idealen der Menschenwürde, der Rechte und Freiheiten sowie der kulturellen Vielfalt vereinbar sind.

12) Persönliche Privatsphäre: Die Menschen sollten das Recht haben, auf die von ihnen erzeugten Daten zuzugreifen, sie zu verwalten und zu kontrollieren, da KI-Systeme die Möglichkeit haben, diese Daten zu analysieren und zu nutzen.

13) Freiheit und Privatsphäre: Die Anwendung von KI auf personenbezogene Daten darf die tatsächliche oder gefühlte Freiheit der Menschen nicht unangemessen einschränken.

14) Gemeinsamer Nutzen: KI-Technologien sollten so vielen Menschen wie möglich zugute kommen und sie befähigen.

15) Geteilter Wohlstand: Der durch KI geschaffene wirtschaftliche Wohlstand sollte auf breiter Basis geteilt werden, damit die gesamte Menschheit davon profitiert.

16) Menschliche Kontrolle: Der Mensch sollte entscheiden, wie und ob er Entscheidungen an KI-Systeme delegiert, um von ihm gewählte Ziele zu erreichen.

17) Nicht-Subversion: Die durch die Kontrolle hochentwickelter KI-Systeme übertragene Macht sollte die sozialen und staatsbürgerlichen Prozesse, von denen das Wohlergehen der Gesellschaft abhängt, respektieren und verbessern, anstatt sie zu untergraben.

18) KI-Wettrüsten: Ein Wettrüsten mit tödlichen autonomen Waffen sollte vermieden werden.

Längerfristige Probleme

19) Fähigkeiten Vorsicht: Da es keinen Konsens gibt, sollten wir starke Annahmen über Obergrenzen für zukünftige KI-Fähigkeiten vermeiden.

20) Wichtigkeit: Fortgeschrittene künstliche Intelligenz könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bedeuten und sollte mit angemessener Sorgfalt und Ressourcen geplant und gesteuert werden.

21) Risiken: Die von KI-Systemen ausgehenden Risiken, insbesondere katastrophale oder existenzielle Risiken, müssen entsprechend ihrer erwarteten Auswirkungen geplant und gemindert werden.

22) Rekursive Selbstverbesserung: KI-Systeme, die für eine rekursive Selbstverbesserung oder Selbstreplikation in einer Weise konzipiert sind, die zu einer rasch steigenden Qualität oder Quantität führen könnte, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.

23) Gemeinwohl: Superintelligenz sollte nur im Dienste weithin geteilter ethischer Ideale und zum Nutzen der gesamten Menschheit und nicht nur eines Staates oder einer Organisation entwickelt werden.

Tragen Sie Ihren Namen in die Liste ein

Zeigen Sie Ihre Unterstützung für diesen offenen Brief, indem Sie Ihre eigene Unterschrift auf die Liste setzen:

Korrekturen der Unterschrift

Wenn Sie glauben, dass Ihre Unterschrift irrtümlich hinzugefügt wurde, oder wenn Sie andere Bedenken bezüglich des Erscheinungsbildes haben, wenden Sie sich bitte an letters@futureoflife.org.

Unterzeichner

Bislang wurden die Grundsätze unterzeichnet von 1200 KI/Robotik-Forscher und 2342 andere. Erfahren Sie, wie diese Grundsätze entwickelt wurden hier und beteiligen Sie sich an der Diskussion über sie hier. Hier finden Sie die vollständige Liste der Unterzeichner hier. Die Liste der Unterzeichner umfasst:

KI/Robotik-Forscher:

Sie müssen Javascript aktivieren, um die Unterzeichner des offenen Briefes zu sehen.

Andere Befürworter:

Sie müssen Javascript aktivieren, um die Unterzeichner des offenen Briefes zu sehen.
Mehr lesen
OFFENE BRIEFE

Verwandte Beiträge

Wenn Ihnen dieser Artikel gefallen hat, könnten Sie auch diese interessieren:
Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
Geschlossen

KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

Dieser gemeinsame offene Brief von Encode Justice und Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
25 Oktober, 2023
Unterzeichner
31810

Große KI-Experimente stoppen: Ein offener Brief

Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu pausieren.
22 März, 2023
Unterzeichner
998

Offener Brief Gegen Rücksichtslose Nukleare Eskalation und Nutzung

Der fürchterliche Krieg in der Ukraine hat das Potenzial, zu einem umfassenden nuklearen Konflikt zwischen der NATO und Russland zu eskalieren, der die größte Katastrophe in der Geschichte der Menschheit wäre. Es muss mehr getan werden, um eine solche Eskalation zu verhindern.
18 Oktober, 2022

Abonnieren Sie den Newsletter des Future of Life Institutes.

Schließen Sie sich 40.000+ anderen an, die regelmäßig über unsere Arbeit und unsere Problembereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram