Bewertung: 0 / 5

Stern inaktivStern inaktivStern inaktivStern inaktivStern inaktiv
 

Heute Morgen habe ich eine interessante Stunde vor dem Fernseher verbracht. Grund war eine philosophische Betrachtung zum Thema Künstliche Intelligenz und Ethik *). Die Forscher entwickeln fleißig immer weiter. Die Systeme der KI werden komplexer und fangen an eigenständig ihre Umwelt wahrzunehmen und zu erkennen. Sie beginnen wahrnehmbar zu lernen. Bald werden sie soweit sein, auch Aufgaben mit Verantwortung, den Menschen gegenüber, zu erledigen. Wenn etwas schief geht, wer ist dafür dann verantwortlich? Der Hersteller? Die Benutzer?

Die Maschinen brauchen einen Codex, einen ethischen Grundgedanken, an dem sie ihre möglichen Handlungsoptionen messen können. Das Gespräch hat mich mehrfach an den Film „I, Robot“ (2004) erinnert.
Dort geht es grundsätzlich um das Thema Ethik im Bereich der künstlichen Intelligenz. -> Ein Roboter hat hier einen Menschen getötet.
Was, wenn ein Computer/Roboter eigene Entscheidungen trifft und sich seiner selbst bewusst wird? Ist dann nur noch er(es) für sein Verhalten verantwortlich? Was ist mit dem Hersteller, der ihn programmiert hat? Schließlich hat diese Programmierung ja das Selbstbewusstsein der Maschine hervorgerufen! Und irgendwann, wenn dann mehrere künstliche Wesen sich ihrer selbst bewusst sind, haben sie dann einen eigenen Willen? Bilden sie dann eine eigene Spezies? Können sie dann auch entsprechende Rechte einfordern? Dieses Dilemma wurde sehr schön in einer Star Trek-Folge behandelt.

Sie heißt: Wem gehört Data? (TNG 2x09). Dort ging es darum, dass Data sich einer wissenschaftlichen Untersuchung zur Verfügung stellen solle. Data lehnte dieses jedoch ab. Dabei kam es zu einem Streit darüber, ob Data das überhaupt dürfe, er sei eine Maschine und doch Eigentum der Sternenflotte.

Es stellte sich heraus, dass Data zwar eine grundlegende Ethik von seinem Hersteller programmiert bekommen hat, er aber diese im Kontakt mit anderen Spezies ständig verfeinert. Sein ethisches Verständnis hat sich weit über das Grundprogramm hinaus erweitert. Er wäre sehr wohl in der Lage, ethisch-moralisch schwierige Fragen zu bedenken und entsprechende Entscheidungen zu treffen. Ähnlich wie es z.B. Menschen tun.

Soweit ich es noch in Erinnerung habe, ist es in den sehr häufigen Gesprächen zwischen Data und Picard meist um ethisch-moralische Belange gegangen.

Kommt sowas auch bald schon auf uns zu? Computer, die sich auch über Ethik und Moral Gedanken machen?

Mich beschäftigt aber auch der Gedanke, ob denn die Roboter der nahen Zukunft unbedingt wie wir Menschen aussehen müssen? Technisch bedingt, wohl nicht. Mir gefallen die vielfältigen Formen von Robotern in den Star Wars Filmen. Sie sind durchweg an bestimmte Aufgaben angepasst und darüber hinaus meistens durchaus in der Lage irgendwie zu kommunizieren. Sie nehmen die Umwelt teilweise schon bewusst wahr. Wenn auch auf niedriger Ebene der Intelligenz. Das hat in den Filmen zuweilen auch komische Elemente. Sie werden hergestellt und dann auf die Galaxie losgelassen. Ganz auf sich allein gestellt und oft immer im Dienste von Lebewesen und sind auch anderen Robotern unterstellt. Fehler erkennen sie selbst und korrigieren sie.
Alle diese Individuen leben friedlich nebeneinander her. So stelle ich mir gerne eine Roboterzukunft vor!

 

* Mensch, Roboter! Wenn Maschinen zu denken beginnen - auf 3sat 20.12.2015 (aus der SRF-Gesprächsreihe "Sternstunde Philosophie")

Diesen Beitrag teilen

FacebookDeliciousMister WongXingTwitterLinkedInGoogle Plus

Social Sharing powered by flodjiSharePro

Kommentar schreiben


Sicherheitscode
Aktualisieren