Skip to content

Benefits & Risks of Artificial Intelligence German

Published:
February 9, 2018
Author:
Revathi Kumar

Contents

Nutzen und Risiken künstlicher Intelligenz

„Alles, was wir an unserer Zivilisation lieben, ist ein Ergebnis von Intelligenz. Die Erweiterung unserer menschlichen Intelligenz mit künstlicher Intelligenz hat das Potenzial, unsere Zivilisation blühen zu lassen wie nie zuvor – vorausgesetzt, wir schaffen es, diese Technologie wohltätig zu behalten.“

Max, Tegmark, Präsident des Future of Life Institute

Click here to see this page in other languages:  English Chinese    French  Japanese   Russian Korean  

Was ist KI?


Von SIRI bis zu selbstfahrenden Autos, künstliche Intelligenz (KI, engl. artificial intelligence, AI) schreitet schnell voran. Science-Fiction stellt KI oft als Roboter mit menschlichen Zügen dar, in Wirklichkeit kann sie vieles umfassen, von Googles Suchalgorithmen über IBMs Watson bis zu autonomen Waffen.

Künstliche Intelligenz von heute wird technisch korrekt als schwache KI (engl. weak, narrow AI) bezeichnet, da sie entwickelt wird, um eine begrenzte Aufgabe zu erfüllen (z.B. nur Gesichtserkennungen, Internetsuchen oder Autofahren). Das Langzeitziel vieler Forscher ist es jedoch, eine starke künstliche Intelligenz (engl. artificial general intelligence, AGI) zu erschaffen. Wo eine schwache KI Menschen bei einer spezifischen Aufgabe schlagen kann, wie beim Schach spielen oder dem Lösen von Gleichungen, könnte eine AGI Menschen bei fast jeder kognitiven Aufgabe übertreffen.

Warum brauchen wir KI-Sicherheitsforschung?


Zurzeit wird in vielen Bereichen – zum Beispiel in der Wirtschaft, den Rechtswissenschaften und in technischen Feldern wie Verifizierung, Validierung, Sicherheit und Kontrolle – Forschung mit dem kurzfristigen Ziel betrieben, die Auswirkungen von KI auf die Gesellschaft positiv und nützlich zu belassen. Es mag ärgerlich sein, wenn unser Laptop einmal abstürzt oder gehackt wird. Aber umso wichtiger wird es, das die KIs machen, was wir wollen, wenn es darum geht unsere Autos, Flugzeuge, Herzschrittmacher, den automatisierten Handel oder das Stromnetz zu steuern. Eine andere Herausforderung der nahen Zukunft ist es, ein zerstörerisches Rüstungsrennen mit tödlichen autonomen Waffen zu verhindern.

Langfristig stellt sich die Frage, was geschieht, wenn das Streben nach einer starken KI erfolgreich ist und ein solches System besser als der Mensch in allen kognitiven Aufgaben wird. Der Statistiker I.J. Good wies 1965 darauf hin, dass die Entwicklung intelligenter Systeme an sich schon eine kognitive Aufgabe sei. Ein KI-System könnte eine rekursive Selbstverbesserung unternehmen und eine Intelligenzexplosion auslösen, die den menschlichen Intellekt weit hinter sich lässt. Die Erfindung revolutionärer neuer Technologien, wie einer Superintelligenz, könnte uns dabei helfen, Kriege zu beenden und Krankheiten und Armut auszulöschen. Dies könnte das größte Ereignis in der Geschichte der Menschheit werden. Einige Experten haben allerdings Bedenken geäußert, dass es auch das letzte sein könnte – wenn wir nicht lernen, die Ziele der KI an die unseren auszurichten, bevor sie superintelligent wird.

Manche bezweifeln, dass eine starke KI jemals erreicht werden wird. Andere glauben, dass die Erschaffung einer superintelligenten KI garantiert wohltätig sein wird. Wir vom Future of Life Institute erkennen beide Aussichten an, sehen aber auch das Potenzial, dass ein KI System großen Schaden anrichten kann – absichtlich oder unabsichtlich. Wir glauben, dass uns Forschungsarbeit heute bei der Verhinderung solch potenziell negativer Konsequenzen in der Zukunft helfen kann. So können wir die Vorteile von KI nutzen und gleichzeitig Fallstricke vermeiden.

Wie kann KI gefährlich werden?


Die meisten Wissenschaftler sind sich einig, dass eine superintelligente KI voraussichtlich keine menschlichen Emotionen wie Liebe oder Hass entwickeln wird. Deshalb ist es nicht zu erwarten, dass sie vorsätzlich gut- oder bösartig werden wird. Wenn es darum geht, wie KIs zum Risiko werden könnten, denken Experten an zwei wahrscheinliche Szenarien:

  1. Die KI wird programmiert, etwas Zerstörerisches zu tun. Autonome Waffen sind künstliche Intelligenzsysteme, die programmiert sind zu töten. In den falschen Händen können sie leicht große Mengen an Opfern fordern. Schlimmer noch, ein KI-Rüstungsrennen könnte zu einem unvermeidlichen KI-Krieg führen, unzählige Tote wären die Folge. Um nicht vom Feind ausgebremst zu werden, wären diese Waffen so entwickelt, dass sie extrem schwer abzuschalten wären. Die Menschen könnten leicht die Kontrolle über solch eine Situation verlieren. Dieses Risiko ist schon bei schwacher KI vorhanden, wächst aber mit jeder Stufe, in der KIs an Intelligenz und Autonomie gewinnen.
  2. Die KI wird programmiert, etwas Gutes zu tun, entwickelt aber eine zerstörerische Methode, ihr Ziel zu erreichen. Dies kann passieren, wenn wir es nicht schaffen, die Ziele der KI mit den unseren in volle Übereinstimmung zu bringen, was extrem schwer ist. Wenn Sie ein gehorsames intelligentes Auto darum bitten, Sie so schnell wie möglich zum Flughafen zu fahren, könnten Sie womöglich vollgekotzt und von Helikoptern gejagt dort ankommen. Das Auto hätte nicht das getan was sie wollten, sondern das, was Sie wortwörtlich verlangt hätten. Wenn ein superintelligentes System mit einem ambitionierten Projekt im Bereich Geo-Engineering betreut wird, könnte es als Nebeneffekt großen Schaden im Ökosystem anrichten und Menschen, die dies stoppen wollen, als Bedrohung ansehen, die es zu beseitigen gilt.

Diese Beispiele zeigen, dass es bei den Sorgen um fortgeschrittene KI nicht um Bösartigkeit, sondern um Kompetenz geht. Eine superintelligente KI wird extrem gut darin sein, ihre Ziele zu erfüllen. Wenn diese nicht mit unseren im Einklang stehen, haben wir ein Problem. Sie sind wahrscheinlich kein fieser Ameisenhasser, aber wenn Sie ein grünes Hydroelektrizitätsprojekt leiten und in einem zu flutenden Gebiet ein Ameisenhaufen liegt, haben die Insekten Pech gehabt. Ein Kernziel der KI-Sicherheitsforschung ist es, die Menschheit niemals in die Position dieser Ameisen kommen zu lassen.

Warum gerade jetzt das Interesse in KI-Sicherheit?


Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates und andere große Namen haben kürzlich in den Medien und mit offenen Briefen Sorgen bezüglich der Risiken von künstlichen Intelligenzen geäußert. Viele führende KI-Forscher haben sich ihnen angeschlossen. Warum ist dieses Thema plötzlich in den Schlagzeilen?

Man hat das Streben nach starker KI lange als Science-Fiction angetan, als etwas, das Jahrhunderte oder noch weiter entfernt liegt. In der letzten Zeit sind Wissenschaftlern allerdings einige Durchbrüche gelungen, die für Experten vor fünf Jahren noch Jahrzehnte in der Zukunft lagen. Viele nehmen jetzt die Möglichkeit sehr ernst, dass wir Superintelligenz noch zu unseren Lebzeiten erleben werden. Manche Fachleute schätzen zwar immer noch, dass eine KI auf menschlicher Höhe mehr als hundert Jahre brauchen wird, aber die meisten KI-Forscher, die auf der Puerto Rico Konferenz 2015 waren, glauben, dass dies noch vor 2060 geschehen kann. Da die erforderliche Forschungsarbeit für entsprechende Sicherheit Jahrzehnte brauchen könnte, ist es klug, sofort damit zu beginnen.

KI hat das Potenzial intelligenter als alle Menschen zu werden, deshalb kann niemand eine Vorhersage treffen, wie sie sich verhalten wird. Wir können nicht auf vergangene technologische Errungenschaften zurückblicken, da wir niemals etwas konstruiert haben, das die Möglichkeit hat uns – bewusst oder unbewusst – überlisten zu können. Das beste Beispiel eines ähnlichen Prozesses könnte unsere eigene Evolution sein. Die Menschheit kontrolliert den Planeten heute nicht, weil wir die Stärksten, Schnellsten oder Größten sind, sondern die Klügsten. Wenn wir nicht mehr die Klügsten sind, ist es sicher, dass wir die Kontrolle behalten?

Die Haltung des Future of Life Institutes ist es, dass unsere Zivilisation gedeihen wird, so lange wir das Rennen zwischen der wachsenden Macht der Technologie und der Weisheit mit der wir sie steuern, gewinnen. Wir glauben, dass dies möglich ist, indem wir unsere Klugheit durch KI-Sicherheitsforschung erhöhen und nicht, indem wir technischen Fortschritt verlangsamen.

Die Top-Mythen über fortgeschrittene künstliche Intelligenz


Aktuell finden spannende Diskussionen über die Zukunft künstlicher Intelligenz statt und was dies für die Menschheit bedeuten kann und wird. Es gibt faszinierende Kontroversen, bei denen die weltweit führenden Experten sich uneins sind: Die zukünftigen Auswirkungen von KI auf den Arbeitsmarkt, ob und wann menschengleiche KI entwickelt werden wird, ob dies zu einer Intelligenzexplosion führen wird und ob dies etwas ist, was wir begrüßen oder fürchten sollten. Gleichzeitig gibt es viele irrelevante Pseudo-Kontroversen von Menschen, die manche Dinge missverstehen und aneinander vorbeireden. Damit wir uns auf die interessanten Diskussionen und Fragen konzentrieren können – und uns nicht mit Vorurteilen herumschlagen müssen – räumen wir jetzt mit ein paar häufigen Mythen auf.



Wann kommt die künstliche Superintelligenz?


Der erste Mythos betrifft die Zeitspanne: Wie lange wird es dauern, bis Maschinen die menschliche Intelligenz übertreffen? Es ist ein weit verbreiteter Irrglaube, dass wir die Antwort darauf mit Sicherheit kennen.

Es ist ein bekannter Mythos, dass wir noch in diesem Jahrhundert übermenschliche KI bekommen werden. Tatsache ist auch, dass die Geschichte voll von übertriebenen Technologieträumen ist. Wo sind die Fusionskraftwerke und fliegenden Autos, die uns für heute versprochen wurden? KI wurde schon in der Vergangenheit öfters aufgebauscht, auch von Vordenkern auf diesem Gebiet. Eine sehr optimistische Vorhersage wurde zum Beispiel in den Fünfzigern von John McCarthy (der den Begriff “artificial intelligence” erfunden hat), Marvin Minsky, Nathaniel Rochester und Claude Shannon geäußert: „Wir beantragen für den Sommer 1956 am Dartmouth College eine Studie zur künstlichen Intelligenz, die zwei Monate dauern und zehn Mitarbeiter benötigen wird. […] Es wird versucht herauszufinden, inwiefern Maschinen Sprache, Abstraktionen und Konzepte verwenden, Probleme lösen, die bisher Menschen vorbehalten sind und wie sie sich selber verbessern können. Wir denken, dass bei einem oder mehreren dieser Probleme signifikante Fortschritte gemacht werden können, wenn eine ausgewählte Gruppe Wissenschaftler einen Sommer lang daran zusammenarbeitet.“

Es gibt auch den Gegenmythos, dass wir übermenschliche KI niemals in diesem Jahrhundert erreichen können. Forscher haben eine große Bandbreite an Schätzungen gemacht, wie weit wir entfernt sind. Wir können aber nicht sicher sagen, dass die Wahrscheinlichkeit in diesem Jahrhundert null ist. Die miserable Erfolgsbilanz von Technologie-Skeptikern spricht für sich. Der wohl größte Atomphysiker seiner Zeit, Ernest Rutherford, sagte beispielsweise 1933, dass nutzbare Atomkraft „Unsinn“ sei – weniger als 24 Stunden vor Leó Szilárds Erfindung der nuklearen Kettenreaktion. Der Astronom Richard Woolley hat 1956 interplanetare Reisen als „absoluten Quatsch“ bezeichnet. Die extremste Version dieses Mythos ist es, dass übermenschliche KI niemals entwickelt werden kann, da dies physisch unmöglich ist. Physiker wissen allerdings, dass ein Gehirn aus Quarks und Elektronen besteht, die zusammengesetzt wie ein mächtiger Computer funktionieren. Es gibt kein physikalisches Gesetz, welches noch intelligentere Quarkansammlungen verhindert.

Es gibt eine Reihe an Studien, bei denen KI-Forscher befragt wurden, wie viele Jahre es ihrer Einschätzung nach noch dauert, bis wir zu mindestens 50 Prozent Wahrscheinlichkeit eine KI auf menschlichem Niveau haben werden. Diese Studien kommen alle zu dem gleichen Ergebnis: Die größten Experten sind sich nicht einig, wir wissen es also einfach nicht. Auf der Puerto Rico Konferenz 2015 gab es zum Beispiel eine solche Umfrage. Der Durchschnitt (Median) der Expertenantworten kam auf das Jahr 2045, aber manche schätzten auch hunderte Jahre oder länger.

Ein verwandtes Vorurteil ist, dass diejenigen, die sich Sorgen um KI machen, glauben würden, dass es nur noch wenige Jahre dauert. Tatsächlich schätzen selbst die Experten, die sich besorgt geäußert haben, diesen Fortschritt auf mindestens noch einige Jahrzehnte. Aber solange wir nicht hundertprozentig sicher sind, dass es nicht in diesem Jahrhundert geschieht, sollten wir an der Sicherheitsforschung arbeiten. Viele der Sicherheitsprobleme, die sich aus menschengleicher KI ergeben sind so komplex, dass es Jahrzehnte dauern könnte sie zu lösen. Es ist also klug, schon jetzt mit der Forschung zu beginnen und nicht erst in der Nacht bevor ein paar Red Bull trinkende Programmierer beschließen eine solche anzuschalten.

Kontroversen?


Ein weiterer verbreiteter Irrglaube sagt, die einzigen, die sich Sorgen über KI machen und KI-Sicherheitsforschung befürworten, seien Ludditen, die nicht viel über das Thema wissen. Als Stuart Russell, Autor eines KI-Standardwerkes, dies bei seinem Vortrag in Puerto Rico erwähnte, gab es großes Gelächter. Es ist ebenfalls falsch, dass KI-Sicherheitsforschung sehr umstritten ist. Um nur ein wenig in KI-Sicherheit zu investieren, brauchen Menschen nicht überzeugt werden, dass es ein großes Risiko gibt, sondern nur, dass die Wahrscheinlichkeit vorhanden ist. Eine bescheidende Investition in eine Hausratversicherung ist ja auch gerechtfertigt durch eine geringe Wahrscheinlichkeit, dass das Haus abbrennt.

Möglicherweise haben die Medien die KI-Sicherheitsdebatte kontroverser aussehen lassen, als sie ist. Angst verkauft sich eben gut und Artikel mit Zitaten ohne Kontext, die unseren drohenden Untergang hinauf beschwören, bekommen mehr Klicks als solche, die ausgeglichen und gut recherchiert sind. Dies kann dazu führen, dass zwei Leute, die die Positionen des jeweils anderen nur aus Medienzitaten kennen, glauben, dass ihre Meinungen weiter auseinanderliegen als sie es tatsächlich tun. Wer zum Beispiel die Meinung von Bill Gates nur aus deutschen Boulevardzeitungen kennt, mag denken, dass Gates glaubt, die Superintelligenz stehe unmittelbar bevor. Gleichzeitig könnte jemand, der sich für wohltätige KI einsetzt, glauben, Andrew Ng sorge sich nicht um KI-Sicherheit, wenn er nur dessen Zitat über die Überbevölkerung auf dem Mars kennt. Dabei tut er es, seine Schätzungen sind nur längerfristig, deshalb priorisiert er kurzfristige Herausforderungen der KI über langfristige.

Mythen über die Risiken übermenschlicher KI


Viele KI-Experten rollen mit den Augen, wenn sie Schlagzeilen wie diese lesen: Elon Musk und Co. warnen vor Killer-Robotern Solche Artikel haben meistens  Bilder von bösen, waffenstrotzenden Robotern und vermitteln den Eindruck, wir müssten uns vor Robotern fürchten, die ein Bewusstsein entwickelt haben und uns töten wollen. Schlagzeilen wie diese wecken eher die Vorstellung von Szenarios, die eben nicht von Forschern befürchtet werden. Drei falsche Vorstellungen kommen hier zusammen: Bewusstsein, böse und Roboter.

Wenn Sie eine Straße entlangfahren, haben Sie eine subjektive Erfahrung von Farben, Geräuschen und alldem. Aber hat ein selbstfahrendes Auto eine subjektive Erfahrung? Gibt es das Gefühl überhaupt, ein selbstfahrendes Auto zu sein? Das Rätsel des Bewusstseins ist ein Thema für sich, aber es ist irrelevant, wenn es um KI-Risiken geht. Wenn Sie von einem autonomen Fahrzeug angefahren werden, macht es keinen Unterschied, ob es subjektiv bewusst dabei ist oder nicht. Uns Menschen betrifft, was superintelligente KI tut, nicht was sie dabei subjektiv fühlt.

Der Irrglaube mit dem Bewusstsein ist verwandt mit dem Mythos, dass Maschinen kein Ziel verfolgen können. Maschinen können natürlich Ziele haben, in dem engen Sinne, dass sie zielorientiertes Verhalten an den Tag legen. Das Verhalten einer wärmesuchenden Rakete liegt dem Ziel zugrunde, einen Zielbereich zu treffen. Wenn Sie von einer solchen Rakete angeflogen werden – ob diese einen bewussten Sinn dafür empfindet oder nicht – werden Sie sicherlich nicht ausrufen: „Ich mache mir keine Sorgen, den Maschinen verfolgen keine Ziele!“

Es ist verständlich, wenn Rodney Brooks und andere Pioniere der Robotik sich von der angstmachenden Boulevardpresse unfair dämonisiert fühlen. Manche Journalisten scheinen besessen von Metallmonstern mit rot leuchtenden Augen zu sein. Die Hauptsorge der Bewegung für wohltätige KI sind aber nicht Roboter, sondern ist die Intelligenz selbst: speziell solche, die nicht mit unserer übereinstimmt. Eine derartige übermenschliche Intelligenz braucht keinen Roboterkörper um Schaden anzurichten, sondern nur eine Internetverbindung. Sie könnte Finanzmärkte überlisten, menschliche Forscher übertreffen, besser manipulieren als politische Führer und Waffen bauen, die wir nicht einmal verstehen. Selbst wenn es physisch unmöglich wäre, Roboter zu bauen, könnte eine KI Menschen leicht für Ihre Zwecke bezahlen oder manipulieren.

Der Roboter-Irrglaube basiert auf dem Mythos, dass Maschinen Menschen nicht kontrollieren könnten. Intelligenz macht Kontrolle aber erst möglich. Menschen haben nicht Kontrolle über Tiger, weil wir stärker, sondern weil wir klüger sind. Wenn wir also die Stellung als klügste Rasse auf dem Planeten verlieren, könnten wir also auch die Kontrolle verlieren.

Interessante Kontroversen


Lassen wir uns nicht von solchen Missverständnissen aufhalten, sondern konzentrieren uns auf die wirklich interessanten Kontroversen, bei denen sich selbst Wissenschaftler uneins sind. Was für eine Zukunft wünschen Sie sich? Sollten wir tödliche autonome Waffen bauen? Was soll bei der Jobautomatisierung geschehen? Welche beruflichen Ratschläge würden Sie Kindern von heute geben? Bevorzugen Sie neue Jobs, die die alten ersetzen, oder wünschen Sie sich eine Gesellschaft ohne Arbeit, in der jeder ein glückliches Leben genießt und der Wohlstand von Maschinen produziert wird? Und weitergedacht: Möchten Sie, dass wir superintelligentes Leben erzeugen und durch den Kosmos schicken? Werden wir intelligente Maschinen kontrollieren oder sie uns? Werden intelligente Maschinen uns ersetzen, mit uns zusammenleben oder mit uns verschmelzen? Was wird es bedeuten Mensch zu sein im Zeitalter der künstlichen Intelligenz? Was wollen Sie, dass es bedeutet und wie können wir eine solche Zukunft kreieren? Beteiligen Sie sich an der Diskussion!

Weiterführende Links (englisch):


 Videos

Medienartikel

Essays von KI-Forschern

Forschungsbeiträge

Forschungssammlungen

Fallstudien

Blogposts und Diskussionen

Bücher

Organisationen

Viele der hier erwähnten Organisationen stammen aus einer Liste, die vom Global Catastrophic Risk Institute zusammengestellt wurde. Für diese Sammlung sind wir dankbar. Alle diese Organisationen arbeiten an Themen die mit Computertechnologie zusammenhängen, aber auch an verschiedenen anderen Gebieten. Diese Liste ist zweifellos unvollständig, bitte kontaktieren Sie uns wegen Zusätzen oder Korrekturen.

This content was first published at futureoflife.org on February 9, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram