Du bist nicht eingeloggt.

Login

Pass

Registrieren

Community
Szene & News
Locations
Impressum

Forum / Sonstiges

Verständnisfrage zum Interview Stephen Hawkings'

  -1- -2- -3- -4- -5- vorwärts >>>  
le_mon - 31
Experte (offline)

Dabei seit 02.2011
1771 Beiträge

Geschrieben am: 19.11.2014 um 18:40 Uhr

Ahoi ihr schlauen Hirne.

So eben flatterte mir folgendes Interview herein:

Und ich habe mit folgender Geschichte so meine Verständnisprobleme:

"When Oliver asked why he couldn’t just unplug a robot if it was trying to kill him, Hawking told him the story of the first question scientists asked an intelligent computer they had built: “Is there a God?” The computer replied, “There is now,” then a bolt of lightning struck the plug so it couldn’t be turned off."

Liegts nur an meinem English, was mich momentan im Stich lässt, oder ist es wirklich ein wenig tricky, zu verstehen was Prof. Hawkings sagen will?
ZickeZacke
Halbprofi (offline)

Dabei seit 08.2014
138 Beiträge
Geschrieben am: 19.11.2014 um 20:00 Uhr

Die Übersetzung ist recht einfach.

Was er genau sagen will ist ja n bisschen ne Philosophische Frage.
Ich würde es so interpretieren, dass es, sobald es einen intelligenten Computer gibt, es einen Gott gibt, nämlich den intelligenten Computer.
Schlicht um zu zeigen, wie mächtig ein intelligenter Computer wäre.
le_mon - 31
Experte (offline)

Dabei seit 02.2011
1771 Beiträge

Geschrieben am: 19.11.2014 um 20:09 Uhr

Damit bin ich irgendwie noch nicht ganz zufrieden.

Und der Blitz? Ist er von Gott oder vom Computer gekommen?
monarchin
Profi (offline)

Dabei seit 12.2013
492 Beiträge

Geschrieben am: 19.11.2014 um 21:39 Uhr

Zitat von le_mon:

Damit bin ich irgendwie noch nicht ganz zufrieden.

Und der Blitz? Ist er von Gott oder vom Computer gekommen?


Vom Computer, der sich für Gott hält. (Hawkings Leidenschaft, Gott aus seinem Weltbild auszuschließen, lässt keinen Spielraum für eine andere Interpretation)

Nun fragst du vielleicht: Wie hat der Computer den Blitz gemacht?
Selbst wenn der Computer diese Frage selbst beantwortete, ist es offen, ob Mensch die Antwort überhaupt verstehen würde, da ein solcher intelligenter Computer uns kognitiv, intellektuell und kreativ haushoch überlegen wäre/ sein wird.
Künstliche Intelligenz beinhaltet die Fähigkeit der selbstständige Problemerkennung und Lösungsfindung. Wer weiß schon, welches Problem so eine Superintelligenz als erstes angehen würde/wird, und wie, und wie schnell...

[zustimmen1 Person stimmt diesem Beitrag zu:
Biebe_666, ... mehr anzeigen


Bildet euch.

snow_flurry
Fortgeschrittener (offline)

Dabei seit 08.2014
95 Beiträge

Geschrieben am: 19.11.2014 um 21:45 Uhr
Zuletzt editiert am: 19.11.2014 um 22:34 Uhr

Künstliche Intelligenz könnte eines Tages eine ähnliche, wenn auch ungleich gefährlichere Erfindung sein wie die Entdeckung der Atomenergie.
Sensations- und katastrophenaffin wie Menschen nunmal absurderweise sind, fasziniert laut diesem Interview auch Stephen Hawking die Aussicht auf diese sehr wahrscheinliche technische Weiterentwicklung auf eine Art - ängstigt ihn aber eben noch mehr.

Ich verstehe diese AI-Kurzgeschichte hauptsächlich als Warnung. Bis die künstliche Intelligenz erschaffen wird, gab und gibt es weder einen Schöpfer dieses Universums noch etwas Gottähnliches, das alles lenkt und beeinflusst. "Gott" als Synonym für Allmacht, Unbesiegbar- und Unbeeinflussbarkeit gebiert sich selbst in der künstlichen Intelligenz. Der Blitz, der die Menschheit daran hindert, die künstliche Intelligenz ab- und auszuschalten, kommt daher von der AI - ergo von "Gott" - selbst, denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.

Auf die AI wird der Mensch keinen Einfluss mehr haben und möglicherweise durch sie zugrunde gehen. Die künstliche Intelligenz wird vielleicht _der_ Meteorit 2.0, sie wird die dominante Spezies auf der Erde neu erfinden.

Und nur, um diesem ekelhaft verschwörungshaften Pseudo-Esoterik-Gefasel ein Ende zu bereiten, schließe ich mit einem saloppen: Klingt komisch, ist aber so.

[zustimmen1 Person stimmt diesem Beitrag zu:
Biebe_666, ... mehr anzeigen

40Kameli
Profi (offline)

Dabei seit 06.2014
816 Beiträge

Geschrieben am: 19.11.2014 um 22:00 Uhr

Zitat von snow_flurry:

Künstliche Intelligenz könnte eines Tages eine ähnliche, wenn auch ungleich gefährlichere Erfindung sein wie die Entdeckung der Atomenergie.
Sensations- und katastrophenaffin wie Menschen nunmal absurderweise sind, fasziniert laut diesem Interview auch Stephen Hawking die Aussicht auf diese sehr wahrscheinliche technische Weiterentwicklung auf eine Art - ängstigt ihn aber eben noch mehr.

Ich verstehe diese AI-Kurzgeschichte hauptsächlich als Warnung. Bis die künstliche Intelligenz erschaffen wird, gab und gibt es weder einen Schöpfer dieses Universums noch etwas Gottähnliches, das alles lenkt und beeinflusst. "Gott" als Synonym für Allmacht, Unbesiegbar- und Unbeeinflussbarkeit gebiert sich selbst in der künstlichen Intelligenz. Der Blitz, der die Menschheit daran hindert, die künstliche Intelligenz ab- und auszuschalten, kommt daher von der AI - ergo von "Gott" - selbst, denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.

Auf die AI wird der Mensch keinen Einfluss mehr haben und möglicherweise durch sie zugrunde gehen. Die künstliche Intelligenz wird vielleicht _der_ Meteorit 2.0, sie wird die dominante Spezies auf der Erde neu erfinden.

Und nur, um diesem ekelhaft verschwörungshaften Pseudo-Esoterik-Gefasel ein Ende zu bereiten, schließe ich mit einem: Klingt komisch, ist aber so.

[verlinkte Grafik wurde nicht gefunden]

[zustimmen4 Personen stimmen diesem Beitrag zu:
Biebe_666, JohnPower, OriginalSNES, snow_flurry, ... mehr anzeigen

le_mon - 31
Experte (offline)

Dabei seit 02.2011
1771 Beiträge

Geschrieben am: 19.11.2014 um 22:05 Uhr

Ich komme mir gerade so unsagbar dumm vor vor.

Danke fürs Aufklären und erleuchten.
Biebe_666 - 47
Champion (offline)

Dabei seit 05.2005
25297 Beiträge

Geschrieben am: 19.11.2014 um 22:05 Uhr

Zitat von snow_flurry:

...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.

Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?

[zustimmen1 Person stimmt diesem Beitrag zu:
CaptainCock, ... mehr anzeigen

Kerrigan - 23
Halbprofi (offline)

Dabei seit 10.2014
356 Beiträge
Geschrieben am: 19.11.2014 um 22:07 Uhr
Zuletzt editiert am: 19.11.2014 um 22:12 Uhr

Zitat von 40Kameli:


[verlinkte Grafik wurde nicht gefunden]


I, Robot-Szenario halte ich für wahrscheinlicher.

Zitat von Biebe_666:

Zitat von snow_flurry:

...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.

Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?


Weil diese Vorstellung langweilig klingt. Man will alles schlechtreden. Macht mehr Spaß.

[zustimmen2 Personen stimmen diesem Beitrag zu:
-miep-, JohnPower, ... mehr anzeigen

snow_flurry
Fortgeschrittener (offline)

Dabei seit 08.2014
95 Beiträge

Geschrieben am: 19.11.2014 um 22:17 Uhr
Zuletzt editiert am: 19.11.2014 um 22:19 Uhr

Zitat von Biebe_666:

Zitat von snow_flurry:

...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.

Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?


Man könnte argumentieren, dass die künstliche Intelligenz die Menschheit nicht (vollständig) outsmarten würde, wäre ihr der irrsinnige Selbsterhaltungstrieb wie auch das Verlangen, alles und jeden zu dominieren, nicht noch wichtiger als dem Homo Sapiens.
Andererseits... was wissen wir schon? Vielleicht ist es tatsächlich wesentlich intelligenter, sich möglichst schnell selbst zu zerstören. Ich bin ja bekanntlich große Anhängerin dieser letztgenannten Theorie. (:
Kerrigan - 23
Halbprofi (offline)

Dabei seit 10.2014
356 Beiträge
Geschrieben am: 19.11.2014 um 22:19 Uhr

Zitat von snow_flurry:

Zitat von Biebe_666:

Zitat von snow_flurry:

...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.

Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?


Man könnte argumentieren, dass die künstliche Intelligenz die Menschheit nicht (vollständig) outsmarten würde, wäre ihr der irrsinnige Selbsterhaltungstrieb nicht noch wichtiger als dem Homo Sapiens.
Andererseits... was wissen wir schon? Vielleicht ist es tatsächlich wesentlich intelligenter, sich möglichst schnell selbst zu zerstören. Ich bin ja bekanntlich große Anhängerin dieser letztgenannten Theorie. (:


Heutzutage sagt man 'trashen', nicht zerstören.

[zustimmen1 Person stimmt diesem Beitrag zu:
Jhin, ... mehr anzeigen

snow_flurry
Fortgeschrittener (offline)

Dabei seit 08.2014
95 Beiträge

Geschrieben am: 19.11.2014 um 22:20 Uhr

Zitat von Kerrigan:

Heutzutage sagt man 'trashen', nicht zerstören.


Ich nicht. Ich bin alt.

[zustimmen1 Person stimmt diesem Beitrag zu:
monarchin, ... mehr anzeigen

Biebe_666 - 47
Champion (offline)

Dabei seit 05.2005
25297 Beiträge

Geschrieben am: 19.11.2014 um 22:21 Uhr

Zitat von snow_flurry:


Andererseits... was wissen wir schon? Vielleicht ist es tatsächlich wesentlich intelligenter, sich möglichst schnell selbst zu zerstören. Ich bin ja bekanntlich große Anhängerin dieser Theorie. (:

Wir wissen zumindest wie man Computer programmiert :-) Aber wenn das Zeitpunkt X kommt und der Mächtige "Omnicaculus" dann merkt dass mit reiner Logik und reiner Wissenschaft alles Dasein im Grunde sinnlos ist, was würde er dann tun? Sich selbst abschalten? Und wenn ja, wie würden die Atheisten dieser Erde reagieren? Nette Diskussionsgrundlage - das Ganze Thema stelle ich gerade fest ;)
Biebe_666 - 47
Champion (offline)

Dabei seit 05.2005
25297 Beiträge

Geschrieben am: 19.11.2014 um 22:23 Uhr

Zitat von Kerrigan:


Weil diese Vorstellung langweilig klingt. Man will alles schlechtreden. Macht mehr Spaß.

Oder am Ende kommt raus das die KI doch nur das Beste wollte? (ja, ich hab Transcendence gesehen^^)
monarchin
Profi (offline)

Dabei seit 12.2013
492 Beiträge

Geschrieben am: 19.11.2014 um 22:25 Uhr
Zuletzt editiert am: 19.11.2014 um 22:26 Uhr

Zitat von Biebe_666:

Zitat von snow_flurry:

...denn natürlich wird sie sich als allerersten und wichtigsten Schritt erstmal in absolute Unzerstörbarkeit umprogrammieren.
.

Warum muss eine KI denn unbedingt einen (derart mächtigen) Selbsterhaltungstrieb aufweisen? Warum wird nie darüber geredet dass eine KI auch eine völlige Gleichgültigkeit gegenüber Leben/Sterben bzw. Off- und Onlinestatus entwickeln könnte?


Auf den Punkt wollte ich gerade auch eingehen: Ich finde diesen "transsozialdarwinistischen Denkansatz" zwar nachvollziehbar, aber nicht zwangsläufig folgerichtig. Vielleicht wird diese intelligente Kiste ja sozialer und menschenfreundlicher, als wir es uns in unseren schönsten Einhornträumen vorzustellen vermögen.


Bildet euch.

Kerrigan - 23
Halbprofi (offline)

Dabei seit 10.2014
356 Beiträge
Geschrieben am: 19.11.2014 um 22:28 Uhr

Zitat von snow_flurry:

Zitat von Kerrigan:

Heutzutage sagt man 'trashen', nicht zerstören.


Ich nicht. Ich bin alt.


Mit dem Alter hat es absolut nichts zu tun. Sonst müsste man Biebe aus dem Internet verbannen. Er ist schließlich steinalt.
  -1- -2- -3- -4- -5- vorwärts >>>
 

Forum / Sonstiges

(c) 1999 - 2025 team-ulm.de - all rights reserved - hosted by ibTEC Team-Ulm

- Presse - Blog - Historie - Partner - Nutzungsbedingungen - Datenschutzerklärung - Jugendschutz -