12,00 €
inkl. MwSt.
Versandkostenfrei*
Sofort lieferbar
payback
0 °P sammeln
  • Broschiertes Buch

Autonomer Individualverkehr und Pflege-Roboter, softwaregesteuerte Kundenkorrespondenz und Social Media, Big-Data-Ökonomie und Clever-Bots, Industrie 4.0: Die Digitalisierung hat gewaltige ökonomische, aber auch kulturelle und ethische Wirkungen. In Form eines Brückenschlags zwischen Philosophie und Science-Fiction entwickelt dieses Buch die philosophischen Grundlagen eines Digitalen Humanismus, für den die Unterscheidung zwischen menschlichem Denken, Empfinden und Handeln einerseits und softwaregesteuerten, algorithmischen Prozessen andererseits zentral ist. Eine Alternative zur…mehr

Produktbeschreibung
Autonomer Individualverkehr und Pflege-Roboter, softwaregesteuerte Kundenkorrespondenz und Social Media, Big-Data-Ökonomie und Clever-Bots, Industrie 4.0: Die Digitalisierung hat gewaltige ökonomische, aber auch kulturelle und ethische Wirkungen. In Form eines Brückenschlags zwischen Philosophie und Science-Fiction entwickelt dieses Buch die philosophischen Grundlagen eines Digitalen Humanismus, für den die Unterscheidung zwischen menschlichem Denken, Empfinden und Handeln einerseits und softwaregesteuerten, algorithmischen Prozessen andererseits zentral ist. Eine Alternative zur Silicon-Valley-Ideologie, für die künstliche Intelligenz zum Religionsersatz zu werden droht.
Autorenporträt
Julian Nida-Rümelin studierte Philosophie und Physik, er war deutscher Kulturstaatsminister und lehrt heute Philosophie und politische Theorie an der Universität München. Er leitet den Bereich Kultur am Zentrum Digitalisierung Bayern. Nathalie Weidenfeld studierte amerikanische Kulturwissenschaft und promovierte an der FU Berlin. Sie verfasste Romane und Sachbücher und arbeitete als Lektorin und Filmwissenschaftlerin.
Rezensionen

Frankfurter Allgemeine Zeitung - Rezension
Frankfurter Allgemeine Zeitung | Besprechung von 31.10.2018

Warnung vor der großen Maschinerie
Julian Nida-Rümelin und Nathalie Weidenfeld nehmen das Silicon Valley ins Visier

Die großen Technologieunternehmen an der amerikanischen Westküste sind gerade sehr erfolgreich: Apple, Alphabet (Google), Microsoft oder Facebook verdienen Milliardenbeträge, die Anleger an der Börse halten sie für wertvoller als Konzerne aus allen anderen Branchen. Das Silicon Valley ist eine Region, die Talente von überallher anzieht, ein Hort der Ausprobierenden, in dem rasanter Aufstieg und Niedergang dicht nebeneinander geschehen, sich die Wirtschaftenden über Ersteres freuen und Letzteres nicht als Schande ansehen. In diesem Sinne ist es tatsächlich nicht bloß eine Ortsbestimmung, sondern zugleich eine Chiffre für eine besondere Haltung zum Unternehmertum - Reid Hoffman, der das Karriere-Netzwerk LinkedIn mitgründete, urteilte einmal sehr zu Recht: "Silicon Valley ist eine Geisteshaltung, kein Ort."

Der Philosoph Julian Nida-Rümelin und die Filmwissenschaftlerin Nathalie Weidenfeld erheben nun einen Vorwurf gegen diesen Technik-Cluster. In ihrem Buch "Digitaler Humanismus - eine Ethik für das Zeitalter Künstlicher Intelligenz" unterstellen sie den Informatikern, die dort arbeiten, die Welt so transformieren zu wollen, dass "das Menschliche auf der Strecke bleibt". Und sie geben eine Handlungsempfehlung: Der "Silicon-Valley-Ideologie" solle etwas entgegengesetzt werden, was sie mit dem Begriff des "digitalen Humanismus" bezeichnen. Anhand von Filmbeispielen ("Blade Runner", "Matrix", "I, Robot" und andere) präsentieren sie, wie die Weiterentwicklung von Computern imaginiert wird, in welchem Verhältnis Maschinen und Menschen zueinander stehen, welche Ängste oder Hoffnungen die Maschinen erzeugen.

Natürlich stimmt es, dass Hollywood seit je ein Spiegel für alle möglichen kollektiven Halluzinationen technischer Zukunftsszenarien gewesen ist. In dieser Hinsicht ist die Lektüre eine Bereicherung, sie regt an und unterhält. Doch die Einlassungen der beiden Autoren dazu, wie Softwareentwickler in den großen Unternehmen die Chancen einschätzen, die sich aus der Künstlichen Intelligenz ergeben, gehen immer wieder daneben. Wer mit führenden Fachleuten wie Geoffrey Hinton oder Yann LeCun spricht, die sich seit Jahrzehnten mit künstlichen neuronalen Netzen und dem maschinellen Lernen beschäftigen - die derzeit vor allem vorangetriebene KI-Methodik -, bekommt gerade keine hochtrabenden, ideologisch unterfütterten Planspiele aufgetischt. Zum Beispiel weisen sie darauf hin, dass überhaupt nicht absehbar ist, wann und ob ein Computerprogramm, das dem menschlichen Gehirn in jeder Hinsicht mindestens ebenbürtig ist, entwickelt werden kann.

Vielmehr betonen gerade die renommierten Fachleute meist die Grenzen dessen, was derzeit möglich ist, heben hervor, dass es um spezialisierte Denkleistungen geht, die Software nun so beherrscht, dass sie mit dem Menschen konkurrieren oder ihn übertreffen kann (Schach, Go, Sehen, Hören). Ganz und gar nicht nehmen sie sich vor, dezidiert irgendeine Form von Erlösungserwartung zu verbreiten; zumindest braucht es einige Phantasie, dies in die Produktpräsentations-Großereignisse hineinzuinterpretieren.

Nida-Rümelin und Weidenfeld versteifen sich auf die Warnung vor einem mechanistischen Menschenbild. "In einem humanistischen Weltbild", so schreiben sie, "ist der Mensch kein Mechanismus, sondern freier (autonomer) und verantwortlicher Akteur der Interaktion mit anderen Menschen und einer gemeinsamen sozialen und natürlichen Welt. Er ist nicht lediglich Teil einer großen Maschinerie, kein Rädchen im großen Getriebe". Warum sie diese Unterscheidung treffen und wieso sie für eine Diskussion über Künstliche Intelligenz relevant sein soll, erschließt sich nicht.

Und für die Diskussion über die Folgen des Fortschritts der Computertechnologie sind auch Fragen wie die, ob eine echte KI Gefühle, Geschmack oder ein Selbstbewusstsein haben muss, nicht entscheidend. Ist es wirklich wichtig, ob ein Roboterauto einen Lieblingsmusiker haben könnte?

Schließlich ist fraglich, ob wir - wie es Nida-Rümelin und Weidenfeld suggerieren - die Weiterentwicklung dieser Technologie wirklich planen und kontrollieren können. Absehbar ist kaum, wie der Stand in zehn oder zwanzig Jahren sein wird, darüber hinaus ohnehin nicht. Zielführender dürfte es sein, sich auf die konkreten Folgen vorzubereiten, auf die sich verändernde Arbeitswelt, auf die Effekte für Bildung und Ausbildung - und dabei nicht zu vergessen, welche Chancen sich ergeben.

ALEXANDER ARMBRUSTER

Julian Nida-Rümelin und

Nathalie Weidenfeld:

"Digitaler Humanismus". Eine Ethik für das Zeitalter der Künstlichen Intelligenz.

Piper Verlag, München 2018. 224 S., geb., 24,- [Euro].

Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
…mehr
»Die Lektüre von 'Digitaler Humanismus' bietet interessante Argumente und Gedanken für die großen Fragen unserer Zeit.« Fränkischer Tag 20181203
Warnung vor der großen Maschinerie
Julian Nida-Rümelin und Nathalie Weidenfeld nehmen das Silicon Valley ins Visier

Die großen Technologieunternehmen an der amerikanischen Westküste sind gerade sehr erfolgreich: Apple, Alphabet (Google), Microsoft oder Facebook verdienen Milliardenbeträge, die Anleger an der Börse halten sie für wertvoller als Konzerne aus allen anderen Branchen. Das Silicon Valley ist eine Region, die Talente von überallher anzieht, ein Hort der Ausprobierenden, in dem rasanter Aufstieg und Niedergang dicht nebeneinander geschehen, sich die Wirtschaftenden über Ersteres freuen und Letzteres nicht als Schande ansehen. In diesem Sinne ist es tatsächlich nicht bloß eine Ortsbestimmung, sondern zugleich eine Chiffre für eine besondere Haltung zum Unternehmertum - Reid Hoffman, der das Karriere-Netzwerk LinkedIn mitgründete, urteilte einmal sehr zu Recht: "Silicon Valley ist eine Geisteshaltung, kein Ort."

Der Philosoph Julian Nida-Rümelin und die Filmwissenschaftlerin Nathalie Weidenfeld erheben nun einen Vorwurf gegen diesen Technik-Cluster. In ihrem Buch "Digitaler Humanismus - eine Ethik für das Zeitalter Künstlicher Intelligenz" unterstellen sie den Informatikern, die dort arbeiten, die Welt so transformieren zu wollen, dass "das Menschliche auf der Strecke bleibt". Und sie geben eine Handlungsempfehlung: Der "Silicon-Valley-Ideologie" solle etwas entgegengesetzt werden, was sie mit dem Begriff des "digitalen Humanismus" bezeichnen. Anhand von Filmbeispielen ("Blade Runner", "Matrix", "I, Robot" und andere) präsentieren sie, wie die Weiterentwicklung von Computern imaginiert wird, in welchem Verhältnis Maschinen und Menschen zueinander stehen, welche Ängste oder Hoffnungen die Maschinen erzeugen.

Natürlich stimmt es, dass Hollywood seit je ein Spiegel für alle möglichen kollektiven Halluzinationen technischer Zukunftsszenarien gewesen ist. In dieser Hinsicht ist die Lektüre eine Bereicherung, sie regt an und unterhält. Doch die Einlassungen der beiden Autoren dazu, wie Softwareentwickler in den großen Unternehmen die Chancen einschätzen, die sich aus der Künstlichen Intelligenz ergeben, gehen immer wieder daneben. Wer mit führenden Fachleuten wie Geoffrey Hinton oder Yann LeCun spricht, die sich seit Jahrzehnten mit künstlichen neuronalen Netzen und dem maschinellen Lernen beschäftigen - die derzeit vor allem vorangetriebene KI-Methodik -, bekommt gerade keine hochtrabenden, ideologisch unterfütterten Planspiele aufgetischt. Zum Beispiel weisen sie darauf hin, dass überhaupt nicht absehbar ist, wann und ob ein Computerprogramm, das dem menschlichen Gehirn in jeder Hinsicht mindestens ebenbürtig ist, entwickelt werden kann.

Vielmehr betonen gerade die renommierten Fachleute meist die Grenzen dessen, was derzeit möglich ist, heben hervor, dass es um spezialisierte Denkleistungen geht, die Software nun so beherrscht, dass sie mit dem Menschen konkurrieren oder ihn übertreffen kann (Schach, Go, Sehen, Hören). Ganz und gar nicht nehmen sie sich vor, dezidiert irgendeine Form von Erlösungserwartung zu verbreiten; zumindest braucht es einige Phantasie, dies in die Produktpräsentations-Großereignisse hineinzuinterpretieren.

Nida-Rümelin und Weidenfeld versteifen sich auf die Warnung vor einem mechanistischen Menschenbild. "In einem humanistischen Weltbild", so schreiben sie, "ist der Mensch kein Mechanismus, sondern freier (autonomer) und verantwortlicher Akteur der Interaktion mit anderen Menschen und einer gemeinsamen sozialen und natürlichen Welt. Er ist nicht lediglich Teil einer großen Maschinerie, kein Rädchen im großen Getriebe". Warum sie diese Unterscheidung treffen und wieso sie für eine Diskussion über Künstliche Intelligenz relevant sein soll, erschließt sich nicht.

Und für die Diskussion über die Folgen des Fortschritts der Computertechnologie sind auch Fragen wie die, ob eine echte KI Gefühle, Geschmack oder ein Selbstbewusstsein haben muss, nicht entscheidend. Ist es wirklich wichtig, ob ein Roboterauto einen Lieblingsmusiker haben könnte?

Schließlich ist fraglich, ob wir - wie es Nida-Rümelin und Weidenfeld suggerieren - die Weiterentwicklung dieser Technologie wirklich planen und kontrollieren können. Absehbar ist kaum, wie der Stand in zehn oder zwanzig Jahren sein wird, darüber hinaus ohnehin nicht. Zielführender dürfte es sein, sich auf die konkreten Folgen vorzubereiten, auf die sich verändernde Arbeitswelt, auf die Effekte für Bildung und Ausbildung - und dabei nicht zu vergessen, welche Chancen sich ergeben.

ALEXANDER ARMBRUSTER

Julian Nida-Rümelin und

Nathalie Weidenfeld:

"Digitaler Humanismus". Eine Ethik für das Zeitalter der Künstlichen Intelligenz.

Piper Verlag, München 2018. 224 S., geb., 24,- [Euro].

Alle Rechte vorbehalten. © F.A.Z. GmbH, Frankfurt am Main
…mehr