Skip to content

How Do We Align Artificial Intelligence with Human Values? German

Published:
March 29, 2018
Author:
Revathi Kumar

Contents

Wie bringen wir KIs mit menschlichen Werten in Einklang?


Click here to see this page in other languages: English US_Flag Chinese    Japanese    Russian 

Ein gewaltiger Wandel ist im Anmarsch. Der Zeitverlauf ist noch unklar, aber die Veränderungen werden jeden Aspekt unserer Gesellschaft beeinflussen. Die Menschen, die bei diesem Übergang dabei sind, haben eine große Verantwortung und die Gelegenheit, diesen bestmöglich zu gestalten. Was diesen Wandel auslösen wird? Künstliche Intelligenz.

Kürzlich haben sich die besten Köpfe aus KI und verwandten Bereichen zusammengesetzt und diskutiert, wie wir sicherstellen können, dass KI bei diesem Übergang wohltätig bleibt. Das Ergebnis waren die KI-Leitsätze von Asilomar. Diese 23 Leitsätze sollten einen Rahmen zu bieten, der dabei hilft, dass künstliche Intelligenz so vielen Menschen wie möglich zugutekommt. Aber, wie der KI-Experte Toby Walsh über die Leitsätze sagte, „diese sind natürlich nur ein Anfang …das Ganze ist ein fortlaufender Prozess.“

Die Leitsätze sind nur der Beginn einer Konversation und wir müssen jetzt die Diskussion über jeden einzelnen Leitsatz weiterführen. Die Leitsätze werden verschiedene Bedeutungen für verschiedene Leute haben. Wenn ein größtmöglicher Teil der Gesellschaft davon profitieren soll, müssen wir jedes dieser Prinzipien individuell unter die Lupe nehmen.

Als Teil dieser Arbeit habe ich viele der KI-Forscher, die die Leitsätze unterschrieben haben, befragt, um ihre Beweggründe für das Unterzeichnen herauszufinden und zu erfahren, welche Probleme wir vor uns haben.

Wertausrichtung


Heute beginnen wir mit dem Leitsatz der Wertausrichtung.

Wertausrichtung: „Stark autonome KI-Systeme sollten so entwickelt werden, dass ihre Ziele und Verhaltensweisen während des Betriebs unter fester Gewissheit auf menschliche Werte ausgerichtet sind.“

Stuart Russell, der mitgeholfen hat, die Idee der Wertausrichtung voranzutreiben, vergleicht diese gerne mit der Geschichte von König Midas. Als Midas sich gewünscht hatte, dass alles, was er anfasst zu Gold werden sollte, wollte er eigentlich nur reich werden. Er wollte nicht, dass sein Essen und seine Liebsten sich auch in Gold verwandeln. Mit der künstlichen Intelligenz stehen wir vor einer ähnlichen Situation: Wie stellen wir sicher, dass die KI macht, was wir wirklich wollen, und nicht bei einem fehlgeleiteten Versuch, die Wünsche seiner Entwickler zu erfüllen, Menschen gefährdet?

„Roboter werden nicht versuchen gegen die Menschheit zu rebellieren“, erklärt Anca Dragan, Assistenzprofessorin und Kollegin von Russell an der UC Berkeley. „Sie werden bloß versuchen zu optimieren, was wir ihnen auftragen. Wir müssen also sicherstellen, dass wir ihnen sagen, wie wir die Welt optimiert haben wollen.“

Was wollen wir?


Zu verstehen, was „wir“ wollen, ist eine der größten Herausforderungen an die KI-Forscher.

„Das Problem ist natürlich, zu definieren, was genau diese Werte sind. Menschen kommen aus verschiedenen Teilen der Welt, haben unterschiedliche Kulturen und sozioökonomische Hintergründe – Ich glaube, die Menschen werden sehr verschiedene Meinungen haben, was diese Werte sind. Das ist die echte Herausforderung.“ Sagt Stefano Ermon, ein Assistenzprofessor in Stanford.

Roman Yampolskiy, Dozent an der Universität von Louisville, stimmt dem zu. Er erklärt, „es ist sehr schwer, menschliche Werte in eine Programmiersprache einzubinden, und das Problem wird noch schwieriger durch die Tatsache, dass wir uns als Menschheit nicht auf gemeinsame Werte einigen können. Selbst die Berührungspunkte, bei denen wir übereinstimmen, ändern sich mit der Zeit.“

Während es bei manchen Werten schwierig ist, einen Konsens zu finden, gibt es viele Werte bei denen wir alle bedingungslos übereinstimmen. Wie Russell bemerkt, versteht jeder Mensch emotionale und sentimentale Werte, mit denen er sozialisiert wurde. Aber es ist schwierig zu garantieren, dass ein Roboter mit dem gleichen Verständnis programmiert wird.

Die IBM-Wissenschaftlerin Francesca Rossi ist jedoch hoffnungsvoll. Rossi weist darauf hin, dass „Forschung unternommen werden kann, um zu verstehen, wie man diese unstrittigen Werte in eine KI, die mit Menschen arbeitet, einbinden kann.“

Die Forschung von Dragan hingegen begegnet dem Problem mit einem anderen Ansatz. Anstatt zu versuchen, die Menschen zu verstehen, versucht sie, einen Roboter oder eine KI für einen flexiblen Umgang mit Menschen zu trainieren. Sie sagt: „Wir glauben in Berkeley […], dass es wichtig für die agierenden Maschinen ist, dass es eine gewisse Unsicherheit bei ihren Zielen gibt, anstatt anzunehmen, dass diese perfekt angepeilt sind. Sie sollen menschlichen Input als wertvolle Beobachtungen über das gewünschte, eigentlich wahre Ziel behandeln.“

Sollten wir den Leitsatz umformulieren?


Die meisten Forscher sind sich über die grundsätzliche Idee des Leitsatzes der Wertausrichtung einig, aber nicht unbedingt darüber, wie er formuliert, geschweige denn implementiert werden soll.

Yoshua Bengio, ein KI-Pionier und Professor an der Universität Montreal merkt an, dass die Formulierung „unter fester Gewissheit“ in dem Leitsatz zu stark sein könnte. Er erklärt: „eine vollständige Ausrichtung ist vielleicht gar nicht möglich. Eine Menge Dinge sind angeboren, diese werden wir nicht durch Maschinenlernen weitervermitteln können. So etwas durch Philosophie und Introspektion zu lösen, könnte schwierig werden. Es ist also nicht klar, ob wir eine perfekte Ausrichtung schaffen können. Ich denke, die Formulierung sollte eher lauten ‚wir werden unser Bestes dafür tun‘. Ansonsten bin ich vollkommen einverstanden.“

Toby Walsh, derzeit Gastdozent an der Technischen Universität Berlin, kritisiert das Wort „stark“. „Ich denke, jedes autonome System, selbst ein schwaches, sollte auf menschliche Werte ausgerichtet werden. Ich würde das Wort ,stark‘ umformulieren.“, sagt er.

Walsh betont außerdem, dass die Wertausrichtung, die oft als zukünftiges Problem dargestellt wird, seiner Ansicht nach eher früher als später angegangen werden muss. „Ich glaube, dass wir schon heute dafür sorgen sollten, diesen Leitsatz umzusetzen,“ erklärt er. „Ich denke, das wird beim immer schwierigeren Problem der Wertausrichtung helfen, wenn die Systeme fortgeschrittener werden.“

Rossi, die den Leitsatz der Wertausrichtung als „mir am meisten am Herzen liegend“ unterstützt, ist auch der Meinung, dass er schon bei heutigen KI-Systemen angewandt werden sollte. „Ich würde es sogar noch allgemeiner formulieren.“, sagt sie. „Dieser Leitsatz hat nicht nur mit autonomen KI-Systemen zu tun, sondern ist auch wichtig für Systeme, die enge menschliche Interaktionen (human-in-the-loop) erfordern, bei denen der Mensch die endgültigen Entscheidungen trifft. Wenn Mensch und Maschine eng zusammenarbeiten, sollten sie ein echtes Team sein.“

Aber wie Dragan erklärt, „ist dies ein Schritt in die Richtung, den KIs zu helfen herauszufinden, was sie tun sollen. Die kontinuierliche Verfeinerung der Ziele sollte ein ständiger Prozess zwischen Menschen und KIs sein.“

Lasst uns mit der Diskussion beginnen!


Wir wenden uns mit der Diskussion nun an Sie. Was würde die Ausrichtung künstlicher Intelligenz auf Ihre persönlichen Lebensziele und Bestrebungen für Sie bedeuten? Wie kann sie gleichzeitig mit Ihnen und allen anderen auf der Welt ausgerichtet werden? Wie können wir sicherstellen, dass die ideale Version der KI des einen nicht das Leben eines anderen erschwert? Wie können wir uns auf menschliche Werte einigen und dabei sicherstellen, dass die KI diese Werte versteht? Wie sollte das Verhalten Ihres persönlichen KI-Assistenten programmiert werden? Wie sollte es aussehen, wenn wir die KIs in Feldern wie Medizin, Überwachung oder Bildung einsetzen? Welche weiteren Fragen sollten wir als Gesellschaft stellen?

This content was first published at futureoflife.org on March 29, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram