Skip to content

AI FAQs German

Published:
February 23, 2018
Author:
Revathi Kumar

Contents

KI-FAQ: Häufige Fragen zur künstlichen Intelligenz

Click here to see this page in other languages:  English  Chinese   Japanese   Korean    Russian

Q: Wer hat den offenen Brief des FLI über stabile und wohltätige künstliche Intelligenz verfasst?

A: Der offene Brief ist eine Initiative des Future of Life Institute (speziell der FLI Gründungsmitglieder und des KI-Forschers und FLI Beiratsmitglieds Stuart Russell) in Zusammenarbeit mit der KI-Forschungsgemeinschaft (inklusive mehreren Unterzeichnern).

Q: Auf welche Arten von KI-Systemen bezieht sich der offene Brief?

A:  Tatsächlich wächst die Zahl der Bedeutungen des Begriffs „künstliche Intelligenz“. Dies kommt daher, weil unsere menschliche Intelligenz eine Vielzahl von verschiedenen Fähigkeiten umfasst. Manche unterscheiden zwischen schwacher/eingeschränkter KI (narrow AI) (wie für das Lösen von CAPTCHAs oder dem Durchführen von Google-Suchen) und starker/allgemeiner KI (artificial general intelligence, AGI), welche die meisten oder alle unserer Fähigkeiten auf menschengleichem oder höherem Niveau reproduzieren könnte. Der offene Brief bezieht sich auf beide Arten.

Q: Welche Sorgen stecken hinter dem offenen Brief des FLIs über autonome Waffensysteme?

 A: Autonome Waffensysteme sind geeignet für Attentate, Destabilisierungen ganzer Nationen, Unterdrückung von Bevölkerungen und selektive Tötungen ausgewählter ethnischer Gruppen. Sollte eine militärische Großmacht mit der Entwicklung von KI-Waffensystemen voranschreiten, wäre ein weltweites Wettrüsten praktisch unvermeidlich. Das Ende solch einer technologischen Entwicklung ist klar abzusehen: Autonome Waffensysteme würden die Kalaschnikows von morgen sein. Ein militärisches Wettrüsten zu beginnen ist eine sehr schlechte Idee und sollte durch ein Verbot von offensiven KI-Waffen ohne sinnvolle menschliche Kontrolle verhindert werden. Lesen Sie hier mehr über die Argumente gegen offensive autonome Waffensysteme.

 Q: Warum ist die Zukunft künstlicher Intelligenz plötzlich in den Schlagzeilen? Was hat sich getan?

 A: In den letzten Jahrzehnten ist die KI-Forschung langsamer vorangeschritten, als manche Experten vorhersagten. Dieser Trend hat sich laut Expertenaussagen allerdings in den letzten fünf Jahren umgekehrt. KI-Forscher wurden beispielsweise immer wieder überrascht, wie effektiv neue visuelle und Sprach-Erkennungssysteme sein können. KI-Systeme können CAPTCHAs lösen, die speziell entwickelt wurden, um sie zu täuschen. Sie können gesprochene Texte im Eiltempo übersetzen und sich selbst Spiele beibringen, die sie nie zuvor gesehen haben und für die sie nicht programmiert wurden. Dazu kommt, dass diese wertvolle Effizienz große Tech-Firmen wie Google, Facebook und IBM zu massiven Investitionen angeregt hat. Dies führt zu einer Aufwärtsspirale, die den Fortschritt weiter dramatisch ansteigen lassen könnte.

Q: Was sind die potenziellen Nutzen einer stetig klüger werdenden KI?

A: In diesem Stadium ist so etwas schwer vorherzusehen, aber wenn sie mit genügend Weitsicht und Vorsorge reguliert wird, kann KI viele unheimlich nützliche Entwicklungen lostreten. So könnten zum Beispiel niedere Arbeiten automatisiert werden, was zu einer blühenden Gesellschaft voller Überfluss und Freizeit, ohne Armut und Mühsal führen könnte. Ein anderes Beispiel wäre, dass KI unsere Fähigkeiten verbessern könnte, komplexe biologische Systeme zu verstehen und zu beeinflussen. So könnte der Weg hin zu verbesserter Gesundheit und längerer Lebensdauer frei werden, Krankheiten könnten besiegt werden.

Q: Wo liegen die Hauptsorgen, wenn es um KI-Sicherheit geht?

A: Die grundlegende Sorge in Bezug auf immer mächtiger werdende KI-Systeme ist, dass sie nicht mehr das machen, was wir von ihnen wollen. Vielleicht, weil sie nicht korrekt entwickelt worden sind oder weil sie mutwillig manipuliert werden. Vielleicht werden sie auch das tun, was wir ihnen sagen und nicht das, was wir wirklich wollen (so wie in den Märchen über Flaschengeister und Wünsche). Viele KI-Systeme sind programmiert Ziele zu haben und diese so effizient wie möglich zu erreichen. Ein Handelsalgorithmus zum Beispiel hat das Ziel der Gewinnmaximierung. Ein hochentwickeltes KI-Wirtschaftssystem, das nicht sorgsam zum Handeln in Übereinstimmung mit menschlichen Werten entwickelt wurde, könnte Methoden anwenden, von denen sich selbst der gewissenloseste Banker distanzieren würde. Dies sind Systeme, die wortwörtlich einen eigenen Kopf haben. Es wird überaus wichtig sein, die Angleichung zwischen menschlichen Interessen und deren Entscheidungen und Handlungen zu bewahren.

Q: Wie steht das FLI zur Auffassung, KI sei eine Bedrohung für die Menschheit?

A: Die grundsätzliche Haltung des FLI dazu ist im offenen Brief zu den Forschungsprioritäten für stabile und wohltätige künstliche Intelligenz dargelegt. Wir denken, dass es derzeit ungewiss ist, ob KI in den nächsten Jahrzehnten vom Risiko her eher wie das Internet sein wird (enorme Vorteile, relativ kleine Risiken), wie nukleare Technologien (derzeit enorme Risiken, verglichen mit den Vorteilen) oder etwas ganz Anderes. Wir vermuten, dass auf langfristige Sicht sowohl Vorteile als auch Risiken wachsen werden, aber die meisten Experten sind überzeugt, dass mehr Forschung zu dieser Frage notwendig ist.

Viele Sorgen konzentrieren sich auf menschenähnliche oder „superintelligente“ KI. Ist dies eine realistische Aussicht in der Zukunft?

A: KI ist bereits übermenschlich, was manche Aufgaben angeht – zum Beispiel mathematische Berechnungen – und wird die Menschen zukünftig mit Sicherheit noch in weiteren Gebieten übertreffen. Wir wissen nicht, wann (oder ob überhaupt) Maschinen menschengleiche Fähigkeiten in allen kognitiven Aufgaben erreichen werden, aber die meisten KI-Forscher bei der FLI Konferenz in Puerto Rico haben die Wahrscheinlichkeit hierfür bei über 50 Prozent noch in diesem Jahrhundert geschätzt. Viele haben deutlich kürzere Zeitvorgaben angegeben. Die Auswirkungen auf die Menschheit werden in solch einem Fall riesig sein. Deshalb ist es ratsam, jetzt mit der Forschung zu beginnen, um positive Folgen sicherzustellen. Viele Wissenschaftler glauben, dass der Umgang mit superintelligenter KI qualitativ ganz anders sein wird, als mit schwacher/eingeschränkter KI, was ebenfalls einen großen Forschungsaufwand erfordert.

Q: Ist KI nicht bloß ein Werkzeug, wie jedes andere auch? Wird KI nicht bloß das tun, was wir ihr sagen?

A: Wahrscheinlich ja – allerdings bezeichnet Intelligenz nach vielen Definitionen die Fähigkeit, herauszufinden, wie Ziele erreicht werden können. Schon bei heutigen fortgeschrittenen KI-Systemen legen die Erbauer das Ziel fest, sagen der KI allerdings nicht genau, wie sie es erreichen soll und auch nicht wie es angegangen werden soll. Diese Systeme lösen Probleme in der Tat oft auf kreative, unvorhergesehene Weise. Das, was solche Systeme klug macht, ist genau der Grund, warum sie so schwer vorherzusehen und zu kontrollieren sind. Sie können deshalb die von uns gesetzten Ziele erreichen und dabei Methoden einschlagen, die nicht mit unseren Einstellungen übereinstimmen.

Q: Gibt es ein Beispiel für das Erreichen eines wohltätigen Ziels durch unangemessene Mittel?

A: Stellen Sie sich vor, sie haben die Aufgabe, das Verkehrsaufkommen in San Francisco um jeden Preis zu verringern, andere Beschränkungen werden nicht berücksichtigt. Wie würden Sie vorgehen? Sie könnten anfangen, die Ampelschaltungen zu verbessern. Aber würde es nicht auch weniger Verkehr geben, wenn alle Brücken zwischen fünf und zehn Uhr morgens gesperrt würden? So eine Maßnahme widerspricht natürlich jeglicher Vernunft und untergräbt das Ziel, den Verkehr zu verbessern, aber sie stimmt mit der Vorgabe überein, das Verkehrsaufkommen zu verringern.

 Q: Warum sollten wir uns jetzt auf menschenähnliche KI Technologie vorbereiten und nicht erst in ein paar Jahrzehnten, wenn es soweit ist?

A: Erstens werfen selbst schwache/eingeschränkte KI Systeme, die innerhalb ihrer Funktionen (zum Beispiel Bild- oder Stimmenerkennung) bereits menschliche Intelligenz erreicht, bzw. übertroffen haben, schon wichtige Fragestellungen zum Einfluss auf die Gesellschaft auf. Einige Beispiele sind die Sicherheit von autonomen Fahrzeugen, die Analyse von ethischen und strategischen Dimensionen von autonomen Waffensystemen und der Effekt von KI auf den globalen Arbeitsmarkt und die Wirtschaftssysteme.

Zweitens, sind die Langzeitfolgen von menschlicher oder übermenschlicher Intelligenz dramatisch und es gibt keinen Konsens darüber, wie schnell die Entwicklung solcher Fähigkeiten ablaufen wird. Viele Experten glauben, dass dies schon bald geschehen könnte. Dies macht es notwendig, schon jetzt langfristige Sicherheitsbedenken zu untersuchen. So können wir auch ein besseres Gespür dafür entwickeln, wie viel früher Fortschritt möglich ist.

Q: Besteht die Sorge, dass autonome KI Systeme bösartig werden oder ein Bewusstsein entwickeln könnten? Könnten sie einen eigenen Willen bekommen und sich gegen uns wenden? Und könnten wir sie nicht einfach abschalten?

 A: Eine begründete Sorge ist, dass manche autonomen Systeme dafür entwickelt werden, für militärische Zwecke zu töten oder zu zerstören. Diese Systeme würden so designet werden, dass sie nur schwer „auszuschalten“ wären. Ob die Entwicklung solcher Systeme langfristig positiv wäre, ist eine Frage, der wir uns dringend widmen müssen. Eine andere Sorge ist, dass hochentwickelte entscheidungsfähige Systeme mit Zielen programmiert werden, die nicht vollständig dem entsprechen, was wir wollen. Logische Schritte, die scheinbar gutartige oder neutrale Ziele verfolgen, könnten zu antisozialen oder destruktiven Taten führen. Eine Reihe von Wissenschaftlern hat das Problem untersucht und ist zu dem Schluss gekommen, dass es überraschend schwierig ist, sich vollständig vor so etwas zu schützen. Je intelligenter diese Systeme werden, desto schwieriger gestaltet sich dieses Problem. Zum Beispiel könnten unsere Versuche, sie zu kontrollieren, von ihnen als Behinderungen ihrer Ziele angesehen werden.

Q: Sind Roboter das wahre Problem? Wie kann KI gefährlich werden, wenn sie die materielle Welt nicht beeinflussen kann?

A: Neu und potenziell gefährlich ist nicht die Fähigkeit, Motoren, Gelenke usw. zu bauen, sondern Intelligenz zu erschaffen. Eine menschenähnliche KI könnte Geld auf den Finanzmärkten verdienen, wissenschaftliche Erfindungen machen, Computersysteme hacken und Menschen für ihre eigenen Zwecke manipulieren oder bezahlen – alles um die anfangs programmierten Ziele zu erreichen. Nichts davon erfordert einen physischen Roboterkörper, sondern nur eine Internetverbindung.

Q: Gibt es Formen fortgeschrittener KI, die sicherer als andere sind?

A: Wir wissen noch nicht, welche KI-Architekturen sicher sind. Dies herauszufinden ist eines der Ziele unserer Zuschussprogramme. In der Regel sind KI-Forscher sehr verantwortungsbewusste Menschen, die für eine Verbesserung der Menschheit arbeiten. Sollte es bestimmte KI-Designs geben, die sich als unsicher herausstellen, werden die Forscher dies untersuchen und Alternativen entwickeln.

Q: Können die Menschen die Kontrolle über den Planeten behalten, wenn menschenähnliche oder übermenschliche KI entwickelt wird?

A: Das ist eine große Frage, über die es sich nachzudenken lohnt. Wir Menschen kontrollieren diesen Planeten, nicht, weil wir stärker oder schneller als andere Tiere sind, sondern weil wir cleverer sind! Wenn wir die Position als intelligenteste Spezies abgeben, ist es nicht sicher, ob wir die Kontrolle behalten.

Q: Lenkt der Fokus auf eine existenzielle Bedrohung einer superintelligenten KI nicht ab von dringenderen Debatten über KI bei der Überwachung, im Kriegsgeschehen und ihre möglichen Auswirkungen auf die Wirtschaft?

A: Sowohl die Arbeit an kurzfristigen als auch an langfristigen Aspekten der KI-Sicherheit sind sehr wichtig. Forschung an Superintelligenz ist ein wichtiger Teil des offenen Briefes, aber die vorherrschende Sorge ist etwas Anderes, als es uns Medienberichte über Terminator-Szenarien weismachen wollen. Ein wesentlich wahrscheinlicheres Szenario ist ein superintelligentes System mit neutralen oder wohltätigen Zielen, die in gefährlicher Art und Weise falsch spezifiziert worden sind. Ein stabiles Design für superintelligente Systeme ist eine komplexe interdisziplinäre Herausforderung, die vermutlich Jahrzehnte dauern wird und deshalb so bald wie möglich begonnen werden muss. Ein großer Teil des Zweckes unseres Forschungsprogrammes ist es, dies zu realisieren. Zugegeben, die Panik schürendenden Medienberichte zu diesen Themen sind kaum hilfreich, weder für kurzfristigen noch langfristigen Fortschritt.

This content was first published at futureoflife.org on February 23, 2018.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:
Our content

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram