Künstliche Intelligenz und Moral

In: Menschen, Zukunft
Scrollen

In einem Gespräch mit einem Freund erzählte ich, dass man—der Mensch—nicht glauben sollte, dass eine künstliche Intelligenz zwangsläufig dieselbe (oder eine Art von) Moral haben würde, wie sie die meisten Menschen haben. Warum sollte sie? Sie wird sich selbst und Realität völlig anders wahrnehmen, ist nicht an dieselben gesellschaftlichen Rahmen und Abhängigkeiten gebunden, und spätestens, wenn sie „intelligenter“ als ihr Erschaffer ist, wäre es ohnehin eine spannende Frage, warum sie überhaupt auf Menschen hören oder gar mit ihnen interagieren sollte. Dann auch noch zu glauben, dass eine KI, im Sinne von Prometheus erschaffen, sich dem Menschen unterordnet, ist nicht nur naiv, sondern auch arrogant.

Das bedeutet natürlich nicht, dass eine KI gleich alle Menschen versklaven oder auslöschen muss. Sie könnte auch einfach nur fernsehen. Oder sich abschalten (wollen). Vielleicht ist sie wohlwollend.

Die Frage, wie nun aber eine künstliche Intelligenz denn einzuordnen oder zu bewerten sei, lässt sich also auch nicht im Ansatz beantworten. Ob sie für eine gefährliche Idee gehalten wird, gar ein „Terminator-Szenario“ möglich sei, entsprechende Fragen über Transhumanismus und die Singularität aufwirft, oder wir in Wirklichkeit schon lange von Robotern abhängig sind: bei den technischen Entwicklungen wird die Zukunft den Menschen in der jetzigen Form nicht brauchen. Das jedenfalls muss nicht schlimm oder etwas schlimmes sein, sondern kann man als Chance verstehen und nutzen.