19,99 €
inkl. MwSt.

Sofort lieferbar
payback
10 °P sammeln
  • Gebundenes Buch

The human brain has some capabilities that the brains of other animals lack. It is to these distinctive capabilities that our species owes its dominant position. Other animals have stronger muscles or sharper claws, but we have cleverer brains.
If machine brains one day come to surpass human brains in general intelligence, then this new superintelligence could become very powerful. As the fate of the gorillas now depends more on us humans than on the gorillas themselves, so the fate of our species then would come to depend on the actions of the machine superintelligence.
But we have one
…mehr

Produktbeschreibung
The human brain has some capabilities that the brains of other animals lack. It is to these distinctive capabilities that our species owes its dominant position. Other animals have stronger muscles or sharper claws, but we have cleverer brains.

If machine brains one day come to surpass human brains in general intelligence, then this new superintelligence could become very powerful. As the fate of the gorillas now depends more on us humans than on the gorillas themselves, so the fate of our species then would come to depend on the actions of the machine superintelligence.

But we have one advantage: we get to make the first move. Will it be possible to construct a seed AI or otherwise to engineer initial conditions so as to make an intelligence explosion survivable? How could one achieve a controlled detonation?

To get closer to an answer to this question, we must make our way through a fascinating landscape of topics and considerations. Read the book and learn about oracles, genies, singletons; about boxing methods, tripwires, and mind crime; about humanity's cosmic endowment and differential technological development; indirect normativity, instrumental convergence, whole brain emulation and technology couplings; Malthusian economics and dystopian evolution; artificial intelligence, and biological
cognitive enhancement, and collective intelligence.

This profoundly ambitious and original book picks its way carefully through a vast tract of forbiddingly difficult intellectual terrain. Yet the writing is so lucid that it somehow makes it all seem easy. After an utterly engrossing journey that takes us to the frontiers of thinking about the human condition and the future of intelligent life, we find in Nick Bostrom's work nothing less than a reconceptualization of the essential task of our time.
Autorenporträt
Nick Bostrom is Professor in the Faculty of Philosophy at Oxford University and founding Director of the Future of Humanity Institute and of the Programme on the Impacts of Future Technology within the Oxford Martin School. He is the author of some 200 publications, including Anthropic Bias (Routledge, 2002), Global Catastrophic Risks (ed., OUP, 2008), and Human Enhancement (ed., OUP, 2009). He previously taught at Yale, and he was a Postdoctoral Fellow of the British Academy. Bostrom has a background in physics, computational neuroscience, and mathematical logic as well as philosophy.
Rezensionen

Frankfurter Allgemeine Zeitung - Rezension
Frankfurter Allgemeine Zeitung | Besprechung von 05.10.2014

Wie soll man denken, ohne zu leben?

Der Mensch ist mehr als ein dysfunktionaler Computer: Nick Bostroms ziemlich dummer Traum von der künstlichen Intelligenz

Wissen Sie, was gruselig wäre? Wenn sich unsere Hände ohne erkennbaren Grund ganz langsam in rote Grütze auflösen würden. Furchtbar! Oder: wenn Computer klüger würden als Menschen. Genauso schlimm - und viel wahrscheinlicher! Warum sonst sollten wir davor eine nagendere Angst haben als vor dem Rote-Grütze-Szenario? Denn wir fürchten uns ja vor Maschinen, die mit kalter Präzision die Fehlbarkeit unserer dämmernden Gedankenwelten offenlegen. Ständig müssen wir lesen, was sie schon alles können, dass sie bald einen Großteil unserer Jobs erledigen werden. Statt über die Menschenwürde derartiger Jobs nachzudenken, denken wir über die Würde des Menschen nach. Denn die wird, das fühlen wir, von den Maschinen in Frage gestellt.

Meldungen wie die, dass IBMs Computer "Watson" mittlerweile präzisere Anamnesen durchführen kann als mancher Arzt, lesen sich nicht mehr wie Nachrichten aus der Wissenschaft. Sie klingen wie Depeschen von der Front; Meldungen schwerer Verluste im Krieg der Menschen gegen die Maschinen.

In seinem Buch "Superintelligence", das in ein paar Wochen auch auf Deutsch erscheint, beschreibt der Wissenschaftler Nick Bostrom, wie schnell alles gehen wird. Dass wir bereits in zwanzig Jahren Computer erleben könnten, die klüger sind als wir: Superintelligenzen. So eine Maschine, meint Bostrom, könnte für die Menschen sehr, sehr unangenehm werden. Im Schlimmstfall könnten wir als Spezies von ihr ausradiert werden, Terminator-Style.

Zum Glück ist dieser Bostrom nur ein Spinner. Würde man jetzt gern schreiben. Wäre aber zu einfach, leider. Der Schwede ist Leiter des "Future of Humanity"-Instituts der Universität Oxford, an dem über Potentiale und Gefahren für Homo sapiens nachgedacht wird. Er ist Professor für Philosophie, hat aber auch einen Master in Computational Neuroscience. Man muss davon ausgehen, dass er weiß, wovon er spricht. Elon Musk, Tesla-Chef und der Thomas Edison unserer Zeit, twitterte nach der Lektüre von "Superintelligence" aufgeregt, dass AI - Artifizielle Intelligenz - für die Spezies potentiell gefährlicher sei als die Atombombe.

Bostroms Argument ist einfach und klingt überzeugend. Die Leistungspotentiale von Computern, schreibt er, haben sich seit ihrer Erfindung immens vergrößert. Es gibt keinen guten Grund, von einem bevorstehenden Ende dieser Entwicklung auszugehen. Die Maschinen werden nicht nur stärker, sie können auch immer mehr. Sie berechnen die optimale Logistik für Feldzüge (DART-Programm), sagen voraus, welche Bücher uns interessieren dürften (Amazon), gewinnen "Jeopardy" (auch Watson, Klugscheißer).

In einer von Bostrom veranlassten Umfrage haben AI-Experten die Wahrscheinlichkeit, dass wir zumindest bis 2075 eine Maschine auf menschlichem Intelligenzniveau erfunden haben, dementsprechend auch auf neunzig Prozent geschätzt. Wenn wir erst einmal so weit sind, ist der Zug schon abgefahren, glaubt Bostrom. Zur menschlichen Intelligenz gehört Lernfähigkeit. Eine Maschine kann im Zweifelsfalle deutlich schneller lernen als wir Affen. Das wäre dann bereits die Superintelligenz: "Ein Intellekt, der die kognitive Leistungsfähigkeit des Menschen in so gut wie jedem Bereich deutlich übertrifft."

Spätestens an dieser Stelle muss aber einmal eingehakt werden. Es gibt hier eine ungeklärte Frage. Denn was ist das eigentlich, kognitive Leistungsfähigkeit? Bostrom donnert in seinem Buch einfach weiter. Mögliche Entstehung, Arten, Herrschaftsstrategien von Superintelligenz und so weiter, alles klug, alles spannend. Aber wirklich. Was ist das, Intelligenz? Was exakt soll programmiert werden? Was haben wir Menschen, was die Maschinen noch nicht, bald aber im Übermaß besitzen werden? Wichtige Frage, würde man denken, für diese ganze Diskussion. Aber man liest und liest, und irgendwann begreift man, dass Bostrom dem Begriff "Intelligenz" in seinem ganzen Buch kein einziges Kapitel gewidmet hat. Er scheut wie ein Pferd vor dem Wassergraben, sobald es um Definitionen von Intelligenz geht. Er warnt davor, in "terminologischen Sümpfen zu versinken". Manchmal wagt er kleine Vorstöße. Intelligente Maschinen denkt Bostrom sich als "vernunftbegabt, lernfähig, abwägend, befähigt zur Bewältigung komplexer Herausforderungen im Prozessieren von Informationen über ein breites Spektrum natürlicher und abstrakter Bereiche".

Das sind in der Tat terminologische Sümpfe. Eigentlich ginge es für Bostrom deutlich einfacher. Unter Intelligenz scheint er die Fähigkeit zu verstehen, in unterschiedlichsten Situationen rational nachvollziehbare Aussagen und Entscheidungen zu treffen. Aber nur wenn wir uns selbst so dermaßen unterkomplex denken, brauchen wir als Menschen vor Maschinen Angst zu haben. Unsere Intelligenz ist viel, viel mehr als das, was Bostrom unter ihr verstehen möchte. Sie ist so kompliziert, dass wir vermutlich zu dumm sind, um sie akkurat zu beschreiben. Die vielen geistigen Fakultäten, die wir besitzen, kommunizieren auf kaum nachvollziehbare Art und Weise miteinander. Kann man etwas, von dem man keinen adäquaten Begriff hat, in Codes beschreiben? Wie eine kausale Ordnung in das neuronale Gewitter unserer Köpfe bringen? Der gute Wissenschaftler antwortet: "Dass wir das jetzt noch nicht können, heißt nicht, dass wir es nie können werden. Wir machen doch Fortschritte." Mag sein.

Entscheidend aber ist ohnehin etwas anderes. Entscheidend ist ein Begriff, den Bostrom in seinem Buch nur streift - weil er ihn für weniger fundamental hält, als er ist. Dieser Begriff weist auf das fundamentale Missverständnis hin, dem Bostrom als Teilnehmer eines mächtigen Diskurses erliegt. Es handelt sich um den Begriff "Qualia". "Qualia" beziehen sich auf die Tatsache, dass wir die Dinge erleben, und zwar nicht bloß irgendwie, sondern auf eine bestimmte Weise. Der Philosoph Thomas Nagel hat das so erklärt: Wir können uns vorstellen, wie es ist, kopfüber von der Decke zu hängen, wie eine Fledermaus. Aber wir können uns nicht vorstellen, wie es für eine Fledermaus ist, kopfüber von der Decke zu hängen. Unsere Qualia sind von denen der Fledermaus verschieden. Wahrscheinlich sind sie sogar individuell, von Mensch zu Mensch, von Moment zu Moment verschieden.

Die Tatsache, dass wir Dinge bewusst erleben und dass dieses Erleben eine individuelle Qualität hat, bestimmt unser Handeln zu einem wesentlichen Ausmaß. Gemeinsam mit dem, was man als Trieb oder als Wunsch bezeichnen würde, sind Qualia der Motor unseres Handelns. Warum etwas tun, wenn es nicht erlebt wird? Warum etwas erleben wollen, wenn es nicht begehrt, gewünscht wird? Warum also eine Lösung suchen, den Wasserhahn erfinden, ein Gedicht schreiben? Warum einen Text über den Intelligenzbegriff von Nick Bostrom?

Bostrom behauptet, dass Qualia eine komplizierte Baustelle seien - wir haben auch wirklich noch keine restlos überzeugende Theorie über die Entstehung des Bewusstseins im Menschen -, dass sie im Bereich der AI aber ohnehin nur für moralische Urteile von entscheidender Bedeutung sein dürften. Wirklich? Wie soll man ein Wesen, das nicht erlebt, für intelligent befinden? Ein Wesen, dessen Erleben und Impuls bestenfalls Simulationen sind, die uns täuschen sollen?

Wie kommt es, dass sich jemand wie Bostrom, ein solcher Experte, auf einen so autistisch anmutenden Intelligenzbegriff einlässt? Die einzig naheliegende Vermutung ist, dass er sich in einem diskursiven Umfeld bewegt, das es ihm gleichtut, in dem also das Ratioide allgemein verwechselt wird mit Intelligenz. Dieser Diskurs ist alt. Er begleitet die Menschheit mindestens, seitdem Philosophie als geistige Disziplin betrieben wird. Michel Foucault zufolge fand im 17. Jahrhundert dann aber noch einmal ein entscheidender Wandel statt. Da begannen die Menschen, allen voran René Descartes, von "Mathesis" zu träumen. Mathesis war die Idee einer universalen Mathematik, in der alles beschrieben werden kann, was sich Ordnung und Maß unterwerfen lässt. Diese Idee löste einen lyrischeren Zugang zur Weltordnung ab, der vor allem in der Analogie, im Gleichnis, der Ähnlichkeit die Gesetze der Welt zu erkennen versuchte: "Die Erde war die Wiederholung des Himmels, die Gesichter spiegelten sich in den Sternen, und das Gras hüllte in seinen Halmen Geheimnisse ein, die dem Menschen dienten." Alles, was nicht mathematischer Ordnung, zählbarem Maß unterworfen werden konnte, wurde von Descartes und seinen Mitstreitern nun dem Bereich der Poesie zugerechnet, den Bereichen der Dichtung, der Phantasie, des Aberglaubens, menschlichen Fakultäten zweiten Ranges. So, wie sich Descartes Seele und Leib getrennt vorzustellen in der Lage war, konnte er sich offensichtlich auch den ratioiden Teil unseres Wesens getrennt von allen übrigen Elementen vorstellen.

Der Mensch wurde so erstmals zu einem Apparat, zu einer Maschine. Für Descartes ("Traité de l'homme") und seine Zeitgenossen ließ er sich als rein kausale Klapperapparatur denken. In gewisser Weise ist dieses Bild vom Menschen bis heute gültig, und vielleicht ist das am Ende auch nicht falsch. Aber für die Maschinenfrage ist hier die Reihenfolge wichtig. Der Mensch erfindet Maschinen und entwickelt danach die Idee, er selbst könnte genauso eine Maschine sein. Er verwechselt sein Spiegel-Geschöpf mit seinen tatsächlichen Verwandten, den übrigen Produkten der Evolution, deren Funktionieren nur als Einheit denkbar ist. In denen also Intelligenz, Instinkt, Furcht, Körperlichkeit, Erleben, Gefühl, Trieb, Handeln und so weiter untrennbar voneinander sind. Es ist derzeit ja viel die Rede vom Speziezismus: von einer Art Rassismus des Menschen gegenüber den Tieren. Ist das nicht spezietistisch: in den Maschinen eher ein Geschwister erkennen zu wollen als in den Spinnchen, Bienchen, Delphinen, Krähen?

An Bostroms Angst vor Superintelligenzen erkennt man, dass heute vielleicht mehr denn je die Rede ist vom Menschen als einer ratioiden Intelligenz, die leider gekoppelt ist an einen riesigen Apparat aus Körper, Gefühl, Erleben und Unsinn. Was irrational ist oder so genannt wird, ist eine verbotene oder zumindest eine Regung zweiten Ranges. Der Mensch wird in diesem Bild zu einem dysfunktionalen PC. Maschinen, scheint Bostrom zu glauben, faseln eben nicht, träumen nicht. Sie sind auf die bloße Funktion reduziert, und dieses reine Funktionieren macht sie dem Menschen überlegen.

Traut sich niemand, auf die Dummheit dieses Szenarios hinzuweisen? Aus Angst, dumm zu wirken? Denn natürlich sind die Computertypen die Tempelpriester unserer Zeit: im Besitz arkanen Wissens, mächtiger, als wir zu träumen wagen. Wenn die behaupten, dass sie bald so weit sind, dann wird das wohl so sein. Es sei denn eben, man hat sich im Tempel zu weit von der Wirklichkeit entfernt. Dann wäre unser nüchterner Verstand nämlich erstens nicht unsere Intelligenz. Und zweitens nicht von den übrigen Seiten unserer Kognition getrennt denkbar, fassbar, ja nützlich.

Man könnte von hier aus auch diverse weitere Fässer aufmachen. Man könnte zum Beispiel fragen, wie eng eigentlich die Reduktion des Intelligenzbegriffs auf den Funktionsgedanken mit dem Kapitalismus, den Billionen im Silicon Valley zusammenhängt. Oder wie man sich den Zusammenhang zwischen der kulturellen Dominanz von Computer- und Ingenieurswissenschaften mit diesem reduzierten Intelligenzbegriff denken muss. Ob nicht die Bereitwilligkeit, mit der wir den Geisteswissenschaften das Wasser abgraben, etwas mit dem Gefühl zu tun haben könnte, dass wir mit den Maschinen mithalten können müssen. Dass deren "Denken" eben jenes Denken sei, dem die Zukunft gehören wird, während all unsere übrigen Fähigkeiten eher Schwächen, träumerische Faseleien sind, jedenfalls von keiner zukunftsträchtigen Relevanz.

Wollen wir das? Wünschen wir das? Wieso plagen wir uns mit derart masochistischen Gedanken, wieso treiben wir sie voran? Offenbart sich in unserer Angst vor den Maschinen nicht in Wahrheit die Angst vor einer Welt, in der alle Kategorien des Erlebens, die uns jenseits der Nüchternheit lieb und teuer sind, verschwinden, unaussprechbar werden, weil sie dem Bereich des Schwachsinnigen zugeordnet werden? Einmal abgesehen von der Frage, ob wir rein rational weiter Wissenschaftler, Erfinder bleiben könnten - es gibt ja zahllose Anekdoten davon, wie Wissenschaft durch Dämmerzustände avancierte, wie Kekulé vom Ouroboros träumte, Einstein in einem vorbeifahrenden Zug die Relativitätstheorie "erkannte", Heisenberg und Bohr in der Überlagerung, im Nicht-Binären, im Stereoskopen umfassten, was sich nur unscharf fassen ließ - wollen wir derart gegen uns leben?

Die Wahrheit ist, dass wir Vorhersagen wie jenen von Bostrom eigentlich mit Widerspruch, mit Spott, vielleicht sogar mit Mitleid begegnen sollten. Aber nicht mit Angst. Wir sollten vielleicht an einer Utopie arbeiten, in der die Maschinen alle Arbeiten erledigen können, die wir nicht erledigen wollen. Uns ansonsten aber mit Freude auf unsere Delirien, Träume, Gefühle und Ahnungen besinnen. Zumindest wenn wir über das nachdenken, was uns als von der Evolution ausgespuckte Spezies letztlich so merkwürdig besonders macht. Wir sollten uns gegenseitig daran erinnern, dass sich in uns die Materie als solche erkannt hat, sich selbst den Namen Materie gegeben hat und dass dieser Ausdruck eine Schöpfung unseres Erlebens ist und nur dadurch Evidenz dessen, was wir als Intelligenz bezeichnen.

ALARD VON KITTLITZ.

Nick Bostrom: "Superintelligence: Paths, Dangers, Strategies". Oxford University Press, 352 Seiten. Im November erscheint das Buch bei Suhrkamp auf Deutsch.

Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
…mehr