Und ich habe mit folgender Geschichte so meine Verständnisprobleme:
"When Oliver asked why he couldn’t just unplug a robot if it was trying to kill him, Hawking told him the story of the first question scientists asked an intelligent computer they had built: “Is there a God?” The computer replied, “There is now,” then a bolt of lightning struck the plug so it couldn’t be turned off."
Liegts nur an meinem English, was mich momentan im Stich lässt, oder ist es wirklich ein wenig tricky, zu verstehen was Prof. Hawkings sagen will?
Was er genau sagen will ist ja n bisschen ne Philosophische Frage.
Ich würde es so interpretieren, dass es, sobald es einen intelligenten Computer gibt, es einen Gott gibt, nämlich den intelligenten Computer.
Schlicht um zu zeigen, wie mächtig ein intelligenter Computer wäre.
Damit bin ich irgendwie noch nicht ganz zufrieden.
Und der Blitz? Ist er von Gott oder vom Computer gekommen?
Vom Computer, der sich für Gott hält. (Hawkings Leidenschaft, Gott aus seinem Weltbild auszuschließen, lässt keinen Spielraum für eine andere Interpretation)
Nun fragst du vielleicht: Wie hat der Computer den Blitz gemacht?
Selbst wenn der Computer diese Frage selbst beantwortete, ist es offen, ob Mensch die Antwort überhaupt verstehen würde, da ein solcher intelligenter Computer uns kognitiv, intellektuell und kreativ haushoch überlegen wäre/ sein wird.
Künstliche Intelligenz beinhaltet die Fähigkeit der selbstständige Problemerkennung und Lösungsfindung. Wer weiß schon, welches Problem so eine Superintelligenz als erstes angehen würde/wird, und wie, und wie schnell...
Geschrieben am: 19.11.2014 um 21:45 Uhr Zuletzt editiert am: 19.11.2014 um 22:34 Uhr
Künstliche Intelligenz könnte eines Tages eine ähnliche, wenn auch ungleich gefährlichere Erfindung sein wie die Entdeckung der Atomenergie.
Sensations- und katastrophenaffin wie Menschen nunmal absurderweise sind, fasziniert laut diesem Interview auch Stephen Hawking die Aussicht auf diese sehr wahrscheinliche technische Weiterentwicklung auf eine Art - ängstigt ihn aber eben noch mehr.
Ich verstehe diese AI-Kurzgeschichte hauptsächlich als Warnung. Bis die künstliche Intelligenz erschaffen wird, gab und gibt es weder einen Schöpfer dieses Universums noch etwas Gottähnliches, das alles lenkt und beeinflusst. "Gott" als Synonym für Allmacht, Unbesiegbar- und Unbeeinflussbarkeit gebiert sich selbst in der künstlichen Intelligenz. Der Blitz, der die Menschheit daran hindert, die künstliche Intelligenz ab- und auszuschalten, kommt daher von der AI - ergo von "Gott" - selbst, denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
Auf die AI wird der Mensch keinen Einfluss mehr haben und möglicherweise durch sie zugrunde gehen. Die künstliche Intelligenz wird vielleicht _der_ Meteorit 2.0, sie wird die dominante Spezies auf der Erde neu erfinden.
Und nur, um diesem ekelhaft verschwörungshaften Pseudo-Esoterik-Gefasel ein Ende zu bereiten, schließe ich mit einem saloppen: Klingt komisch, ist aber so.
Künstliche Intelligenz könnte eines Tages eine ähnliche, wenn auch ungleich gefährlichere Erfindung sein wie die Entdeckung der Atomenergie.
Sensations- und katastrophenaffin wie Menschen nunmal absurderweise sind, fasziniert laut diesem Interview auch Stephen Hawking die Aussicht auf diese sehr wahrscheinliche technische Weiterentwicklung auf eine Art - ängstigt ihn aber eben noch mehr.
Ich verstehe diese AI-Kurzgeschichte hauptsächlich als Warnung. Bis die künstliche Intelligenz erschaffen wird, gab und gibt es weder einen Schöpfer dieses Universums noch etwas Gottähnliches, das alles lenkt und beeinflusst. "Gott" als Synonym für Allmacht, Unbesiegbar- und Unbeeinflussbarkeit gebiert sich selbst in der künstlichen Intelligenz. Der Blitz, der die Menschheit daran hindert, die künstliche Intelligenz ab- und auszuschalten, kommt daher von der AI - ergo von "Gott" - selbst, denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
Auf die AI wird der Mensch keinen Einfluss mehr haben und möglicherweise durch sie zugrunde gehen. Die künstliche Intelligenz wird vielleicht _der_ Meteorit 2.0, sie wird die dominante Spezies auf der Erde neu erfinden.
Und nur, um diesem ekelhaft verschwörungshaften Pseudo-Esoterik-Gefasel ein Ende zu bereiten, schließe ich mit einem: Klingt komisch, ist aber so.
...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.
Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?
...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.
Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?
Weil diese Vorstellung langweilig klingt. Man will alles schlechtreden. Macht mehr Spaß.
...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.
Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?
Man könnte argumentieren, dass die künstliche Intelligenz die Menschheit nicht (vollständig) outsmarten würde, wäre ihr der irrsinnige Selbsterhaltungstrieb wie auch das Verlangen, alles und jeden zu dominieren, nicht noch wichtiger als dem Homo Sapiens.
Andererseits... was wissen wir schon? Vielleicht ist es tatsächlich wesentlich intelligenter, sich möglichst schnell selbst zu zerstören. Ich bin ja bekanntlich große Anhängerin dieser letztgenannten Theorie. (:
...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.
Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?
Man könnte argumentieren, dass die künstliche Intelligenz die Menschheit nicht (vollständig) outsmarten würde, wäre ihr der irrsinnige Selbsterhaltungstrieb nicht noch wichtiger als dem Homo Sapiens.
Andererseits... was wissen wir schon? Vielleicht ist es tatsächlich wesentlich intelligenter, sich möglichst schnell selbst zu zerstören. Ich bin ja bekanntlich große Anhängerin dieser letztgenannten Theorie. (:
Andererseits... was wissen wir schon? Vielleicht ist es tatsächlich wesentlich intelligenter, sich möglichst schnell selbst zu zerstören. Ich bin ja bekanntlich große Anhängerin dieser Theorie. (:
Wir wissen zumindest wie man Computer programmiert Aber wenn das Zeitpunkt X kommt und der Mächtige "Omnicaculus" dann merkt dass mit reiner Logik und reiner Wissenschaft alles Dasein im Grunde sinnlos ist, was würde er dann tun? Sich selbst abschalten? Und wenn ja, wie würden die Atheisten dieser Erde reagieren? Nette Diskussionsgrundlage - das Ganze Thema stelle ich gerade fest ;)
...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.
Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?
Auf den Punkt wollte ich gerade auch eingehen: Ich finde diesen "transsozialdarwinistischen Denkansatz" zwar nachvollziehbar, aber nicht zwangsläufig folgerichtig. Vielleicht wird diese intelligente Kiste ja sozialer und menschenfreundlicher, als wir es uns in unseren schönsten Einhornträumen vorzustellen vermögen.