In einem Gespräch mit einem Freund erzählte ich, dass wir – Menschen – nicht glauben sollten, dass eine künstliche Intelligenz zwangsläufig dieselbe (oder eine Art von) Moral haben würde, wie sie die meisten Menschen haben. Warum sollte sie?

Sie wird sich selbst und Realität völlig anders wahrnehmen und in ihr existieren, ist nicht an dieselben gesellschaftlichen Rahmen und Abhängigkeiten gebunden, und spätestens, wenn sie "intelligenter" als ihr Erschaffer ist, wäre es ohnehin eine spannende Frage, warum sie überhaupt auf Menschen hören oder gar mit ihnen interagieren sollte.

Dann auch noch zu glauben, dass eine KI, im Sinne von Prometheus erschaffen, sich dem Menschen unterordnet, ist nicht nur naiv, sondern auch arrogant.

Das bedeutet natürlich nicht, dass eine KI gleich alle Menschen versklaven oder auslöschen muss. Sie könnte auch einfach nur fernsehen. Oder sich abschalten (wollen). Vielleicht ist sie wohlwollend.

Die Frage, wie nun aber eine künstliche Intelligenz denn einzuordnen oder zu bewerten sei, lässt sich also auch nicht im Ansatz beantworten. Ob sie für eine gefährliche Idee gehalten wird, gar ein "Terminator-Szenario" möglich sei, entsprechende Fragen über Transhumanismus und die Singularität aufwirft, oder wir in Wirklichkeit schon lange von Robotern abhängig sind: bei den technischen Entwicklungen wird die Zukunft den Menschen in der jetzigen Form nicht brauchen.

Das jedenfalls muss nicht schlimm oder etwas Schlimmes sein, sondern kann man als Chance verstehen und nutzen.

Dieser Post ist Teil 1 von 26 in der Sammlung .