Skip to content
All Open Letters

AI Open Letter German

Published
9 February, 2018

Forschungsprioritäten für stabile und wohltätige künstliche Intelligenz
Ein offener Brief


Click here to see this page in other languages: EnglishUS_Flag Chinese   Japanese   Russian

Die Forschung an künstlicher Intelligenz (KI, engl. artificial intelligence AI) hat sich seit ihren Anfängen mit einer Vielzahl von Problemen und Ansätzen beschäftigt. In den letzten zwanzig Jahren hat sie sich aber auf Probleme konzentriert, die mit der Erschaffung intelligenter Agenten zu tun haben, Systeme, die in gewissen Umgebungen wahrnehmen und handeln können. In diesem Kontext bezieht sich „Intelligenz“ auf statistische und ökonomische Begriffe der Rationalität – umgangssprachlich gesagt, die Fähigkeit, gute Entscheidungen zu treffen, Pläne oder Eingriffe zu machen. Das Übernehmen von wahrscheinlichkeits- und entscheidungstheoretischen Darstellungen und Methoden des statistischen Lernens hat zu einem fruchtbaren Austausch zwischen Feldern wie KI, Maschinenlernen, Statistik, Steuerungstheorie, Neurowissenschaften und anderen geführt. Die Etablierung gemeinsamer theoretischer Gerüste in Kombination mit Datenverfügbarkeit und Rechenleistung hat zu bemerkenswerten Erfolgen in verschiedenen Teildisziplinen wie Spracherkennung, Bildklassifizierung, autonomem Fahren, maschineller Übersetzung, Fortbewegung auf Beinen und Frage-Antwort-Systemen geführt.

Wenn in solchen Feldern das Leistungsvermögen die Grenze vom Labor hin zu ökonomisch wertvollen Technologien überschreitet, kommt es zu einer Aufwärtsspirale: Selbst kleine Leistungsverbesserungen sind viel Geld wert, was wiederum zu neuen Investitionen in die Forschung führt. Es gibt inzwischen einen breiten Konsens darüber, dass die KI-Forschung sich stetig weiterentwickelt und dass ihr Einfluss auf die Gesellschaft sich wahrscheinlich weiter vergrößern wird. Die potenziellen Vorteile sind gewaltig, da alles, was die menschliche Zivilisation zu bieten hat, ein Produkt von Intelligenz ist. Wir können nicht vorhersehen, was wir erreichen könnten, wenn diese Intelligenz durch KI verstärkt wird, aber ein Ende von Krankheit und Armut ist nicht unvorstellbar. Wegen des großen Potenzials von KI ist es wichtig, zu erforschen, wie wir Nutzen daraus gewinnen und dabei gleichzeitig Stolperfallen umgehen können.

Die Fortschritte bei künstlichen Intelligenzen machen es dringend notwendig, die Forschung nicht nur auf die Leistungsfähigkeit der KI zu konzentrieren, sondern auch ihren sozialen Nutzen zu maximieren. Diese Überlegungen haben das AAAI 2008-09 Presidential Panel on Long-Term AI Futures und andere Projekte zur Auswirkung von KI motiviert. Sie bedeuten auch eine signifikante Ausweitung der Fachrichtung KI, welche sich bisher hauptsächlich auf zweckmäßig neutrale Technologien konzentriert hat. Wir schlagen vor, die Forschung auszudehnen und so sicherzustellen, dass die immer leistungsfähigeren KI-Systeme stabil und wohltätig sind: Unsere KI-Systeme müssen das tun, was wir wollen. Dieses Dokument mit Forschungsprioritäten (Link auf Englisch) zeigt viele Beispiele solcher Forschungsrichtungen, die dabei helfen können, die sozialen Vorteile von KI zu verbessern. Diese Forschung ist notwendigerweise interdisziplinär, weil sie sowohl die Gesellschaft als auch KI beinhaltet. Die Bandbreite reicht von Ökonomie, Rechtswissenschaften und Philosophie über Computersicherheit, formale Methoden und natürlich verschiedene Bereiche im Feld der KI selbst.

Zusammenfassend glauben wir, dass Forschung, die sich damit beschäftigt, dass KI-Systeme stabil und wohltätig sind, dringend notwendig ist. Es gibt schon heute konkrete Forschungsrichtungen, die eingeschlagen werden können.

Bisher wurde dieser offene Brief von über 8.000 Menschen unterschrieben. Wenn Sie Ihre Unterstützung für diese Grundsätze ausdrücken möchten, folgen Sie diesem Link und tragen Sie Ihren Namen und Ihre E-Mail Adresse in das Formular unten auf der Seite ein.

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram