Künstliche Intelligenz und Innerlichkeit

Ein Gastbeitrag von Claude Del Don

Chatbots, Smartphone-Assistenten, Roboadviser: künstliche Intelligenz befindet sich im Moment in aller Munde und nimmt einen nicht unwichtigen Platz im Denken von Bankmanagern, IT-Entwicklern und Politikern ein. Chatbots sind künstliche Online-Profile in Social-Media.Netzwerken, welche beispielsweise von Firmen oder politischen Parteien eingesetzt werden, um ihre Produkte, Dienstleistungen oder Wahlprogramm zu verbreiten. Smartphone-Assistenten (z.B. Apples Siri) sind meist sprachgesteuerte Programme, welches die Nutzer bei der Bedienung computergestützter Geräte unterstützen soll. Roboadviser sind digitale Assistenten im Banking oder künstliche “Kundenberater” für Bankkunden, welche Anlage- und andere Beratungsfunktionen ausführen.

Um sich dem Thema des Verhältnisses von Künstlicher Intelligenz zum Menschen von akademisch-geisteswissenschaftlicher Seite zu nähern, mag es notwendig sein, dem etwas veralteten und allenfalls noch im kulturhistorischen Kontext verwendeten Begriff der „Innerlichkeit“ zu neuer Bedeutung zu verhelfen. Er umfasst Vorgänge des menschlichen (Selbst-)Bewusstseins wie Denken, Lieben, Mitleid Empfinden, Wut Empfinden, Trauern, sich Freuen, usw. Innerlichkeit ist also quasi die vom Individuum wahrgenommene Äusserung des (Selbst-)Bewusstseins. Vereinfacht gesagt könnte man Innerlichkeit also als jenen Vorgang verstehen, der es dem Menschen ermöglicht, über sich selbst als „Ich“ oder als „Selbst“ nachzudenken.

Kulturgeschichtlich findet sich eine der frühesten Konzeptionen von Innerlichkeit im Buch Exodus des Alten Testamentes, wo Gott sich selbst als der „Ich bin“ bezeichnet. Auch im nicht-monotheistischen Griechenland des 6. vorchristlichen Jahrhunderts findet sich der Überlieferung gemäss eine Inschrift der Sieben Weisen über dem Eingang zum Tempel von Delphi, wovon eine das bekannte „Erkenne dich selbst“ ist. Im 5. Jahrhundert n. Chr. empfiehlt dann Augustinus sich vom Äusseren ins Innere zu kehren, um Gott, sich selbst und die Wahrheit zu finden. Descartes definiert ca. 1000 Jahre später Innerlichkeit als das Denken allein („Cogito ergo sum“ – ich denke, also bin ich). So bahnbrechend Descartes’ Erkenntnis für die Philosophie die Geistesgeschichte war, so stellt sie dennoch eine Verkürzung der ursprünglichen Bedeutung des Begriffs der Innerlichkeit dar. Der religiöse Kontext, in den Innerlichkeit in der Antike und im Mittelalter gestellt wurde, sowie die Arbeit von Descartes führten schliesslich dazu, dass Hegel ihn im 18. Jahrhundert meist als etwas Negatives betrachtet. Immerhin galt für Hegel das Denken als eine Form der Innerlichkeit, die nicht negativ konnotiert war. Für Nietzsche war im 19. Jahrhundert die Unterscheidung zwischen Innerem und Äusserem ein Unding und er plädierte für eine reine Äusserlichkeit.

Diese Entwicklung mag dazu beigetragen haben, dass der Astrophysiker Martin J. Rees heute das Denken von nassen Systemen (damit sind wir Menschen gemeint) als vergleichsweise begrenzt und die Menschheit somit nur als Vorspiel der Geschichte bezeichnet. Elektronische Rechenmaschinen kennen diese Begrenzung nicht. Diese Feststellung erfolgt in keiner Weise mit Bedauern, sondern vermittelt eher den Eindruck, Martin J. Rees empfinde dies als natürliche und richtige Entwicklung. Hier findet die Reduktion des Menschen auf sein Denken und die Veräusser(lich)ung der Innerlichkeit einen Höhepunkt.

Von Marvin Minsky, einem der Pioniere auf dem Gebiet der künstlichen Intelligenz wird gesagt, er hätte gerne Folgendes kolportiert:

„One day soon, maybe twenty or thirty years into the twenty-first century computers and robots will be able to construct copies of themselves, and these copies will be a little better than the originals because of intelligent software. The second generation of robots will then make a third, but it will take less time, because of the improvements over the first generation. The process will repeat. Successive generations will be ever smarter and will appear ever faster. People might think they’re in control, until one fine day the rate of robot improvements ramps up so quickly that superintellligent robots will suddenly rule the Earth.“

Für Marvin Minsky war dies jedoch nicht eine Schreckensvision, sondern das wünschenswerte Szenario, welches er durch seine Forschung herbeiführen resp. für die Herbeiführung zumindest einen wesentlichen Beitrag leisten wollte.

Anders Elon Musk: Er zeichnet in einem Artikel der Frankfurter Allgemeinen Zeitung in Verbindung mit Künstlicher Intelligenz ein recht düsteres Bild der Zukunft des Menschen. Er beschwört sogar den durch lernende Maschinen verursachten 3. (atomaren) Weltkrieg und bedient sich dabei der Ikonographie des Films „Terminator“ aus dem Jahre 1984. In diesem Film liegt die Welt in der Zukunft in Staub und Asche. Ein Atomkrieg, verursacht von einer künstlichen Intelligenz, geschaffen von Menschen, welche kurz nach Inbetriebnahme ein eigenes Bewusstsein entwickelte und ihr Überleben nur in der Vernichtung der Menschheit sah. Andere Erzeugnisse der Filmkunst wie beispielsweise das japanische Anime  „Ghost in the Shell“ (kürzlich als Realfilm in den Kinos) gehen ein wenig differenzierter mit dem Thema um, wenngleich nicht weniger kritisch.

Es stellt sich die Frage, wovor Elon Musk genau warnen will. Vor der künstlichen Intelligenz oder vor den Menschen, welche sie programmieren, propagieren und versuchen gesellschaftliche Akzeptanz für sie zu erreichen? Betrachtet man das obige Konzept der Innerlichkeit und bleibt man bei der ursprünglichen Vielfalt dieses Begriffs, so stellt sich unweigerlich die Frage, ob eine Maschine, ein Algorithmus, ob offenes oder geschlossenes System, jemals Innerlichkeit haben wird oder immer nur höchstens eine Simulation davon  sein kann. Bleibt Innerlichkeit damit nicht das Alleinstellungsmerkmal des Menschen gegenüber der Maschine? Jedoch bleibt die Möglichkeit, dass es denjenigen Vertretern der Befürworter künstlicher Intelligenz wie Martin J. Rees oder Marvin Minsky ganz recht ist, wenn lernende Maschinen niemals Innerlichkeit erlangen, da sie diese möglicherweise als eben jenes Element menschlichen Daseins betrachten, welches überwunden werden muss. Über das Menschenbild, das hinter solchen Haltungen zweifelsohne existiert, lässt sich lediglich spekulieren. So hat auch ETH-Professor Thomas Hofmann mehr Angst vor den Menschen (als Erbauer und Nutzer der Maschine) als vor den Maschinen selbst.

Im Umgang mit elektronischen Hilfsmitteln, die künstliche Intelligenz nutzen, empfiehlt sich für den Endverbraucher zu unterscheiden, wes Geistes Kind das jeweilige Hilfsmittel bzw. die künstliche Intelligenz ist. Denn es könnte sich als problematisch erweisen, wenn beispielsweise einem Roboadviser zugestanden wird, an Stelle des Kunden (in der Annahme sein Algorithmus simuliere den Kunden vollkommen) Investments zu tätigen. Oder wenn eine solche „Kundensimulation“ als alleinige Entscheidungsgrundlage dient, ob jemand eine Kranken- oder Autoversicherung erhält oder falls ja, zu welchem Preis. Im ersten Fall könnte ein Irrtum in der Annahme zu Verlusten für die Anleger führen. Im zweiten Fall zu einer Diskriminierung und im Falle der Krankenversicherung zu einer mangelnden Gesundheitsversorgung. Verhaltensökonom Thorsten Hens weist darauf hin, dass Roboadviser es in Krisenfällen nicht mit der (durch Innerlichkeit geprägten) Expertise eines Warren Buffet aufnehmen können.

Aus diesen Gründen empfiehlt sich für die Unternehmensführung von Banken und Versicherungen, aber auch für Gesetzgeber und Regulatoren, nicht zu vorschnell die Diskussion um die Frage zu entscheiden, ob künstliche „Intelligenz“ tatsächlich Intelligenz im menschlichen Sinne ist, ob die Simulation dem Original so nahe kommt, dass sie austauschbar werden könnte. Diese Diskussion sollte breit abgestützt angestossen und geführt werden, damit nicht politisches und ökonomisches Denken und Kalkül (allein) darüber entscheidet, was den Menschen zum Menschen macht und ob eine Maschine, egal wie ausgeklügelt sie auch sein mag, ihn ersetzen wird oder können soll. Das Konzept der Innerlichkeit kann hierbei als Unterscheidungsmerkmal und –kriterium dafür gelten, welche Macht man den lernenden Maschinen resp. deren Schöpfern zugestehen will und sollte.
 

Claude Del Don, Legal Reporting Specialist bei Julius Bär, Zürich, 08. November 2017

 

 

 

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.