Suche nach Titel, AutorIn, RezensentIn, Verlag, ISBN/EAN, Schlagwort
socialnet Logo

Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus

Rezensiert von Prof. Dr. Dr. Bernhard Irrgang, 11.04.2019

Cover Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus ISBN 978-3-492-05837-7

Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper Verlag GmbH (München) 2018. 219 Seiten. ISBN 978-3-492-05837-7. D: 24,00 EUR, A: 24,70 EUR, CH: 32,50 sFr.

Weitere Informationen bei DNB KVK GVK.

Kaufen beim socialnet Buchversand

Thema

Die digitale Revolution des 21. Jahrhunderts beruht auf der Nutzung künstlicher Intelligenz. Das rezensierte Buch eines bekannten Münchener Philosophieprofessors und einer promovierten Lektorin im Bereich von Literatur- und Filmwissenschaften mit amerikanistischem Hintergrund befasst sich mit kulturellen und philosophischen Aspekten der künstlichen Intelligenz und plädiert für einen digitalen Humanismus. Dieser ist technik-, aber auch menschenfreundlich. Dass wir humanoide Maschinen als Roboter bezeichnen, verdanken wir einem Theaterstück des tschechischen Schriftstellers Karel Capek, der 1920 ein Drama um eine Firma namens R. U. R. verfasste, das Roboter (künstliche Menschen) herstellt, um sie als billige Arbeitskräfte zu missbrauchen (S. 15 f.). Erneut tritt der klassische philosophische Antagonismus von Determinismus und Freiheit durch diese Technologie zu Tage, wobei die beiden Autoren als Alternative zur Silicon-Valley-Ideologie (Determinismus) die Konzeption des digitalen Humanismus entwickeln wollen (S. 20). „Der Schlüsselbegriff ist dabei der der künstlichen Intelligenz, aufgeladen mit unausgesprochener Metaphysik und Theologie, eine sich selbst verbessernde, hyperrationale, zunehmend beseelte Entität, deren Schöpfer allerdings nicht Gott oder Götter sind, sondern Softwareingenieure aus Silicon Valley, […]. Die Silicon-Valley-Ideologie nimmt humanistische Impulse als Ausgangspunkt, um sie dann […] zu anti-humanistischen Utopien zu transformieren“ (S. 21 f.). Es besteht ein praktischer Konsens darüber, dass Computer und Roboter keine mentalen Eigenschaften haben wir sind uns weitgehend einig darüber, dass im Gegensatz zu Tieren – denen Leidensfähigkeit zugesprochen wird – Roboter keine Erfindungsfähigkeit aufweisen (S. 25). Trotzdem vertreten manche Befürworter der künstlichen Intelligenz die These, dass man grundsätzlich zwischen einem menschlichen Gehirn und einem Computer nicht unterscheiden könne (S. 26). Wer aber meint, es könne keinen kategorialen Unterschied geben zwischen menschlichen Gehirnen und Computern, legt die Axt an die Fundamente nicht nur der wissenschaftlichen Praxis, sondern einer humanen Lebenswelt generell (S. 28). Es ist in der Philosophie durchaus umstritten, was die Würde des Menschen eigentlich ausmacht (S. 29). Der Vorschlag der Autoren: gemäß Kant darf man einen Menschen weder instrumentalisieren oder manipulieren, sodass dieser sich seiner Selbstachtung (personalen Identität) beraubt fühlt oder besser sich als solcher erfährt (S. 30).

Autor

Julian Nida-Rümelin studierte Philosophie und Physik, war deutscher Kulturminister und lehrt heute Philosophie und Politische Theorie an der Universität München. Er leitet den Bereich Kultur am Zentrum Digitalisierung Bayern und beschäftigt sich insbesondere mit ethischen Fragen von Digitalisierung und Robotik. Nathalie Weidenfeld studierte amerikanische Kulturwissenschaft und promovierte an der FU Berlin. Sie arbeitete als Lektorin und Filmwissenschaftlerin und schreibt Romane sowie Sachbücher.

Philosophisch-literarische Überlegungen zum Wissenschaftscharakter Künstlicher Intelligenz

In der Sciencefiction gaukelt die Roboterfrau Afa echte Gefühle vor. Am Ende der Geschichte kommt heraus, dass sie diese nur simuliert, aber tatsächlich nie realisiert hat (S. 32-37). Zugrunde liegt die Denkweise der radikalen Positivisten, die die metaphysische These vertreten, dass mentale Zustände nur Verhaltensmuster sind (S. 37). Natürlich sind Verhaltensweisen Grundlage dafür, dass wir anderen (Menschen, Tieren, Maschinen) mentale Zustände zuschreiben, aber Menschen identifizieren mentale Prozesse normalerweise nicht mit naturalen Gehirnvorgängen identifiziert (S. 38), wie es gerade in der sogenannten Neurophilosophie häufig geschieht. Es ist für Menschen unbezweifelbar, dass sie mentale Eigenschaften haben. Die Erste-Person-Perspektive spielt dabei eine entscheidende Rolle. So wie es für uns keinen vernünftigen Zweifel am Fremdpsychischen geben kann, kann es nach Lage der Dinge keinen Zweifel am nicht-psychischen Charakter des Digitalen geben (S. 40 f.). In der Tat haben manche Software gesteuerten Systeme probabilistische Funktionen. Der Übergang von deterministischen zu probabilistischen Maschinen führt aber nicht zu einer Aufhebung des kategorialen Unterschiedes zwischen Mensch und Maschine. Die Alternative ist nicht die zwischen Determinismus und Probabilismus, sondern zwischen Determinismus und Freiheit (S. 46 f.). Der Naturalismus, der insbesondere in den Neurowissenschaften weit verbreitet zu sein scheint, bestreitet menschliche Freiheit und Verantwortung unter Verweis auf das determinierte System des Gehirns, das durch seine genetische und epigenetische Prägung sowie durch sensorische Stimuli gesteuert sei. Das Gefühl, Autor des eigenen Lebens zu sein, verlangt aber mehr als die Wahl geeigneter Mittel zu vorgegebenen Zwecken. Die Fähigkeit zur Abwägung von Gründen spielt in diesem Selbstbild eine zentrale Rolle (S. 48-50). Um diese Thematik geht es auch in der Film-Trilogie Matrix.

Die beiden Autoren identifizieren unter dem Leitbild der starken KI These einen umfassenden Rationalismus, welchem bewusst oder unbewusst das Ideal der universellen, vollständig determinierten Kausalität als Erklärungsmuster der Welt und des Menschen zugrunde legt. Starke KI in all ihren Varianten ist eine Form des Anti-Humanismus (S. 57). Demgegenüber bezweifelt der digitale Humanismus nicht die menschliche Autorschaft, die auch digitalen Techniken zugrunde liegt. Die Beobachtung von neuronalen Korrelationen zwischen Blutfluss, Gehirnaktivitäten und menschlichen Handlungen bzw. Entscheidungen darf nicht zu der mechanistischen Ideologie verführen, wonach alle menschlichen Entscheidungen mit Hirnaktivitäten zu identifizieren sind (S. 60). Neben dem Rationalismus diagnostizieren die Autoren einen Zusammenhang zwischen digitaler Optimierung, Utilitarismus und KI (S. 64). Letztere korrespondiert auch der ökonomischen Rationalität, insofern sich diese als Softwareprogramm präsentiert (S. 71). KI handelt nicht nach eigenen Gründen. Sie hat keine Gefühle, kein moralisches Empfinden, keine Intentionen, und sie kann diese anderen Personen auch nicht zuschreiben. Ohne diese Fähigkeiten aber ist eine angemessene moralische Praxis nicht möglich. Um eine berechtigte von einer unberechtigten Bitte unterscheiden zu können, ist es erforderlich, die bittende Person richtig einzuschätzen, ihre Motive zu erkennen und ihre Interessenslage zu berücksichtigen (S. 83 f.).

Gibt es eine digitale Ethik?

Afa hat keine eigenen Gefühle. Wie ein intelligenter Autist hat sie nur gelernt, wie es ist, Gefühle von Menschen objektiv zu verstehen, indem sie diese über deren Mimik und Gestik errechnet. Dies versetzt sie zwar in die Lage, andere manipulieren zu können, aber nicht, selbst Gefühle zu haben (S. 87). Wie die Kognitions-Forscherin Mary, die alles über Farben und die neurologischen Begleitumstände von Farbwahrnehmungen weiß, aber noch nie etwas Farbiges gesehen hat, weiß Afa zwar alles über menschliches Verhalten, kann aber selbst weder wie ein Mensch fühlen noch moralisch urteilen. So wie alle KIs wird sie nie in der Lage sein, eine verlässliche Freundin zu sein (S. 89). Diese Überlegungen allgemeiner Art gelten auch für konkrete Anwendungen, so zum Beispiel für autonom fahrende Automobile. Diese setzen lediglich die Regeln um, die in seiner Software einprogrammiert wurden. Dies gilt auch, wenn Formen von selbstlernender Künstlichen Intelligenz zum Einsatz kommen (S. 93). Der humane Kern ist nur um den Preis zu haben, dass moralische Dilemmata akzeptiert werden, dass also für den Menschen Situationen auftreten, in denen sich Akteure zwangsläufig mit Schuld beladen. Alle Sicherheitsvorteile durch Digitalisierung des Individualverkehrs lassen sich durch Assistenzsysteme erreichen, umstritten ist der Übergang vom hochautomatisierten zum autonomen Fahren, welches Verantwortung eines Fahrers ausschließt. In Notfallsituationen handeln Menschen nach moralischer Intuition und nicht nach einem Optimierungskalkül. Der digitale Humanismus empfiehlt also den konsequenten, wohl durchdachten Einsatz aller Potenziale digitaler Technologien, um den Schutz von Leben und Gesundheit im Straßenverkehr zu verbessern. Dieses Ziel wird aber nicht durch autonomes Fahren erreicht, welchem bislang ein utilitaristischer Konsequentialismus zugrunde liegt, der den beschriebenen übertriebenen Rationalismus anwendet, welcher auf dem radikalen Maschinendenken beruht (S. 94-98).

Die Praxis des Abwägens lässt sich nicht algorithmisch simulieren. Dies zeigt sich nirgends so deutlich wie in jenen Situationen, in denen es um moralische Dilemmata geht (S. 103). Trotz einer oft perfekten Simulation liegt beim Computer kein eigenes verständiges Erfassen, kein Problembewusstsein, keine Einsicht zugrunde. Da visuelle Softwareprogramme Erkenntnisvorgänge mentaler Art nur simulieren, aber nicht selbst über eigene Wahrnehmungsfähigkeit verfügen, versagen diese schon angesichts schlichter und einfacher Aufgaben wie Mustererkennung. Ähnliches gilt für digitale Übersetzungsprogramme. Es fehlt eben an Sprachverständnis. Eine Software versteht keinen Satz, selbst wenn es einmal gelingen sollte, ihn korrekt zu übersetzen. Das Theorem der Unberechenbarkeit von Kurt Gödel zeigt uns, dass die Welt der logischen und mathematischen Strukturen insgesamt nicht algorithmisch strukturiert ist (S. 109-111). Es fehlt jedenfalls an Intentionalität, also das Gerichtet Sein des Geistes auf etwas. Diese Intentionalität wird aber durch künstliche neuronale Netze nicht realisiert (S. 115). Die Schlussfolgerung der Autoren: „die Hölle ist ein Ort, an dem der Mensch konsequentialistisch programmierten Computern, die unfähig sind, wirklich zu denken, die Macht gegeben hat, über Leben und Tod zu entscheiden“ (S. 119). Digitale Virtualität sollte also mit nüchternen Realitäten konfrontiert werden (S. 120). Im Hinblick auf die Nutzung des Internets scheint sich eine realistischere Sichtweise zumindest anzubahnen. So bekämpfen viele Menschen unethische Kommunikationspraktiken im Netz. Bislang werden vor allen Dingen Selbstverpflichtungen formuliert (S. 132). Einen Sonderfall in der digitalen Kommunikation stellt die Kommunikation zwischen Mensch und KI dar. Dabei stellt sich die Frage, welchen Status Kommunikation mit einer virtuellen Realität besitzt. Wenn Bots auch suggerieren, kommunizierende Agenten zu sein, sie sind immer nur scheinbar kommunikativer Akte fähig (S. 134-137).

Digitale Kultur

In einem nächsten Schritt werden kulturelle Aspekte der Digitalisierung erörtert. Das Grundprinzip aller Menschenrechte ist unveräußerlich: Niemand darf in seiner Selbstachtung existenziell beschädigt werden. Die Bedingungen einer humanen Gesellschaft ändern sich jedoch mit den Zeiten und Kulturen (S. 141). Am Anfang des Internetzeitalters bestand die Hoffnung, das Internet gegen diktatorische Regime einsetzen zu können. In der Zwischenzeit ist man realistischer, wie das Beispiel China zeigt (S. 142 f.). Für weite Bereiche der Weltgesellschaft gilt, dass die nicht-Teilnahme an Social Media de facto kulturellen Ausschluss bedeutet, sodass der datenkritische Nutzer sein Recht auf informationelle Selbstbestimmung mit dem Ausschluss aus sozialen und kulturellen Gemeinschaft bezahlt. Diese Selfie-Kultur mit der typischen Geste des Hochhaltens des Handys, mit dem man sich selbst fotografiert, kann als eine Art Wiederauflage der Geste der mythologischen Figur des Narzissmus gesehen werden (S. 144 f.). Damit steht das Thema der digitalen Bildung auf dem Tablett. Das World Wide Web konfrontiert uns mit einer weitaus größeren Vielfalt von Interpretationen, Thesen, Theorien und Ideologien. Wissen verlangt Urteilskraft, erst Bewertung, Einordnung und Interpretation von Daten kann Wissen konstituieren. Die große Herausforderung der Bildung in Zeiten der Digitalisierung besteht darin, den aktuellen Trend zur Datenökonomie in eine Entwicklung zur Wissensgesellschaft zu transformieren. Dabei ist Persönlichkeitsbildung heute aktueller denn je. Die digitalen Möglichkeiten schaffen neue Freiheitsspielräume, lösen eine gewaltige Veränderungsdynamik nicht nur ökonomischer, sondern auch kultureller Verhältnisse aus, stärken von daher auch Autonomiepotenziale der Individuen und setzen diese zugleich unter den permanenten Stress eines wachsenden Orientierungsbedarfs. In den digitalen Lebenswelten der Zukunft ist Ich-Stärke so sehr wie nie zuvor in der Menschheitsgeschichte gefordert (S. 160 f.).

Neue Demokratiemodelle und das Ende der Arbeitsgesellschaft

Neue Demokratiemodelle werden diskutiert, so zum Beispiel das bedingungslose Grundeinkommen. Die sozialen Sicherungssysteme sollen durch ein einheitliches Grundeinkommen ersetzt werden. Die Idee eines bedingungslosen Grundeinkommens geht in seinen Wurzeln bis auf das 19. Jahrhundert zurück. Der wichtigste weltanschauliche Kontext ist der des Anarchismus und des utopischen Sozialismus. In den letzten Jahrzehnten ist als weiterer weltanschaulicher, sozialwissenschaftlicher Kontext die Ideologie vom Ende der Arbeitsgesellschaft hinzugetreten. Bisher haben technologische Innovationen zwar massive Verschiebungen auf den Arbeitsmärkten ausgelöst, aber nicht zu einem umfassenden Schwund von Erwerbsarbeit geführt. Tatsächlich hat sich das Produktivitätswachstum in den vergangenen Jahren der Digitalisierung eher abgeschwächt als erhöht, ja enttäuschender Weise bildet sich die dritte und vierte technologische Revolution bislang in der Produktivitätsentwicklung nicht ab. Nach den bisherigen Erfahrungen sind die Produktivitätseffekte durch die Digitalisierung bescheiden und mit früheren technologischen Revolutionen nicht vergleichbar. Eine neue Phase industriell orientierte Digitalisierung wird daher vermutlich nicht zu einer deutlichen Schrumpfung des Arbeitsvolumens führen, es könnten aber neue Spielräume für einen Ausbau lebenslangen Lernens, einen flexibleren Wechsel zwischen Familien- und Erwerbsarbeit, für Sabbaticals und mehr Zeitsouveränität genutzt werden. Auch muss es nicht zu einer Spaltung der Gesellschaft in hochbezahlte und produktive Erwerbsarbeiter und unproduktive, von einem bedingungslosen Grundeinkommen Alimentierte führen. Die empirische Evidenz, dass längere Absenz von Erwerbstätigkeit die Erwerbsfähigkeit drastisch reduziert, ist überwältigend (S. 179-185). Allerdings ist die Kulturbranche als Ganzes ein Wachstumstreiber in allen westlichen Volkswirtschaften geworden. Die zunehmende Digitalisierung muss und darf keinen Ausstieg aus der Arbeitsgesellschaft zur Folge haben (S. 187).

Fazit

In der animistischen Fassung, die viele Hollywood-Filme prägt, werden Softwaresystem als beseelte Wesen betrachtet, die genauso mit mentalen Eigenschaften ausgestattet sind wie Menschen. Die optimistische Erwartung, dass die kognitiven Fähigkeiten von Softwaresystemen unbegrenzt entwicklungsfähig sind, geht oft einher mit einer Art Erlösungshoffnung: demnach befreien digitale Techniken die Menschen von den Mühen und Beschränkungen ihres Daseins (S. 204). Die Schwächen der KI These liegen vor allem darin, dass es eine vollständige Simulation menschlichen Urteilens und Entscheidens nicht geben kann. Wenn Computer erkennen, entscheiden und fühlen, sollten wir mit Ihnen rücksichtsvoll umgehen und ihnen je nach ihrer Menschenähnlichkeit auch Menschenrechte zuerkennen. Ganz im Gegenteil zu ihrer Intention wird die starke KI dann zum Forschungshemmnis (S. 206).

Das hier vorgelegte Buch fasst philosophiegeschichtlich erarbeitete begriffliche Präzisierung als Orientierungswissen über die Digitalisierung als neuer technologischer Herausforderung zusammen. Der filmisch-literarische Kontext der Erörterung philosophischer Theoreme erhöhen die Lesbarkeit des Textes ohne Beeinträchtigung der Genauigkeit der Darstellung der zur Diskussion stehenden Probleme. Technisches Detailwissen wird nicht vorausgesetzt, also eine rundum gelungene und äußerst empfehlenswerte Aufklärung über ein brandaktuelles Thema.

Rezension von
Prof. Dr. Dr. Bernhard Irrgang
Der Rezensent lehrte Technikphilosophie und angewandte Ethik an der TU Dresden
Mailformular

Es gibt 19 Rezensionen von Bernhard Irrgang.

Besprochenes Werk kaufen
Sie fördern den Rezensionsdienst, wenn Sie diesen Titel – in Deutschland versandkostenfrei – über den socialnet Buchversand bestellen.


Zitiervorschlag
Bernhard Irrgang. Rezension vom 11.04.2019 zu: Julian Nida-Rümelin, Nathalie Weidenfeld: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper Verlag GmbH (München) 2018. ISBN 978-3-492-05837-7. In: socialnet Rezensionen, ISSN 2190-9245, https://www.socialnet.de/rezensionen/24614.php, Datum des Zugriffs 18.01.2025.


Urheberrecht
Diese Rezension ist, wie alle anderen Inhalte bei socialnet, urheberrechtlich geschützt. Falls Sie Interesse an einer Nutzung haben, treffen Sie bitte vorher eine Vereinbarung mit uns. Gerne steht Ihnen die Redaktion der Rezensionen für weitere Fragen und Absprachen zur Verfügung.


socialnet Rezensionen durch Spenden unterstützen
Sie finden diese und andere Rezensionen für Ihre Arbeit hilfreich? Dann helfen Sie uns bitte mit einer Spende, die socialnet Rezensionen weiter auszubauen: Spenden Sie steuerlich absetzbar an unseren Partner Förderverein Fachinformation Sozialwesen e.V. mit dem Stichwort Rezensionen!

Zur Rezensionsübersicht