@canary canary schrieb:"interpretiert", das ist es. Im Grunde frage ich bloß, ob eine Maschine zu interpretieren in der Lage ist,
Wenn Du ihr die entsprechenden Algorythmen einprogrammierst, kann sie auch interpretieren, was übrigens schon Gang und Gebe in der Programierung der KI-Engine ist (wie Cole of Duty, Counterstrike, World of Warkraft, etc.).
canary schrieb: Wir alle wissen aus welchen Materialien der Körper aufgebaut ist. Der Körper gleicht einer Maschine.
Richtig, aus rund 8 Bill. Zellen, die miteinander interagieren können.
Eine Maschine (Roboter/Android) aber aus einem metallischen, Polyuritan Skelett. Die Beweglichkeit erhält das Endoskelett durch mehrer Prozessoren, die es regeln und steuern und in denen die unterschiedlichen Bewegungsalgorythmen gespeichert sind.
Weiterhin gibt es noch Prozessoren für die Bewegung der Kameras (Augen), bzw. was die Kameras "sehen" und Prozessoren zur Lokalisierung/Position im Raum.
All diese Prozessoren interagieren mit einer(mehrerer) zentralen CPU(s), die alle Sensoren auswertet.
Der wesentliche Unterschied zwischen dem menschlichen Gehirn und den CPU's ist, CPU's abeiten digital (sprich: ein Impuls wird weitergeleitet (1) oder nicht (0)). Das menschliche Gehirn aber arbeitet nicht nur analog (sprich: ein Impuls kann in unterschiedlichen Stärken weitergeleitet werden(Null bis Maximalwert)), zum Anderen wird ein Impuls nicht von eine "Speicherzelle" zur Anderen geschickt, sondern kan den Impuls in unterschiedliche Stärken an hunderte Zellen weiterleiten.
Ein Vergleich Mensch<=>Maschine kann von daher nicht wirklich gemacht werden.
canary schrieb:Und was soll jetzt mit z.B. Raben, Menschenaffen, Delfine, etc.sein? Passen meine Vergleiche/Beispiele dann immer noch? Wenn du was anderes, außer ein Mensch wärst, dann nicht, behaupte ich.
Nun - zum Einen ist Deine Behauptung falsch (was aber nicht weiter schlimm ist) und zum Anderen werde ich Dir nun wohl erklären müssen, was es mit meinen Beispielen auf sich hat.
canary schrieb:Wenn du was anderes, außer ein Mensch wärst, dann nicht
Du behauptest also, das nur der Homo sapiens (Mensch) in der Lage ist, nicht nurFarben, Formen, Gehörtes, etc. zu sehen/hören, sondern auch zu interpretieren.
Nun, da muß ich Dich enttäuschen. Denn jedes höher entwickelte Gehirn (dazu gehören u.a. auch die Lebewesen, die ich in meinem Beispiel nannte) interpretiert sich die jeweilige Umwelt. Ja mehr noch. Meine genannten Lebewesen gehören zu denen, die sich ihrer selbst bewußt sind (sprich: sie erkennen in ihrem Spiegelbild nicht einen Anderen, sondern sich selbst).
Folglich hat nicht nur der Homo sapiens ein Bewußtsein, sondern auch andere Lebensformen hier auf dem Planeten. Und da passen Deine Beispiele/Vergleiche nicht mehr, weil Du sie lediglich auf den Menschen an sich reduzierst und nicht bedacht hast, daß es ja auch andere Lebewesen mit Gehirnen gibt, die interpretieren können.
Und jetzt kommt der Knackpunkt.
Weil der Mensch ein Bewußtsein hat, spielst Du ihm auch noch eine Selle zu. So weit, so so gut, ist auch noch alles legitim.
Aber - wie ich oben gerade erklärt habe - gibt es noch viele weitere Lebewesen hier auf der Erde, die ebenfalls ein Bewußtsein haben und denen mußt Du doch dann ebenfalls eine Seele zuordnen, oder etwa nicht?
canary schrieb:Glaubst du eine Maschine wird auf eine optische Täuschung reinfallen?
Zum Einen - zum Glauben geht man in die Kirche und zum Anderen - Nein, ein Android würde nicht darauf reinfallen, denn es ist ja (wie die Worte schon sagen) eine optische Täuschung. Diese tritt z.B. beim menschlichen Auge auf. Denn die Augen bewegen sich ein lebenlang. Auch nwenn wir meinen, auf den Punkt in der Mitte Deines Bildes (zu dem übrigens die Quellenangabe fehlt) zu starren, bewegen sich die Augen dennoch minimal (wie der Fachbegriff dazu heißt, möchte ich jetzt nicht unbedingt bei Wiki nachschauen). Auf jeden Fall machen unsere Augen das, um scharf sehen zu können und so interpretiert unser Gehirn daraus eine (scheinbare) Bewegung. Wir werden also optisch getäuscht.
Ein Android wird sich nicht täuschen lassen, da seine Kameras eben diese dauernde Bewegung nicht macht. Hühner oder Tauben zum Beispiel (könnten sie sprechen) würden diese scheinbare Bewegung auch nicht wahrnehmen, denn ihre Augen sind ebenfalls starr. Um scharf sehen zu können, bewegen sie den Kopf vor und zurück (darum immer diese Bewegung, wen Tauben, Hühner, etc. laufen).
canary schrieb:Eine Maschine wird niemals den Wert eines Beethovens erahnen können. Oder die Schönheit eines Wortes. Ästhetik, Harmonische Zusammenhänge genießen...
Warum auch? Warum sollte ein Wort "schön" sein? Wer sagt, welches Wort schön ist und welches häßlich. Und warum ist es häßlich und nicht schön?
Welchen
Vorteil hätte ein Android, wenn er subjektive Werte sammeln würde, oder welche
Nachteile würden ihm dadurch entstehen?
Du meinst, den ersten Menschen musste man Liebe erst hineinprügeln, ehe sie es verstanden, weil die ersten MEnschen ja erst diese Liebe erlenen mussten,
Der Mensch (Homo sapiens) hat keine Sonderstellung auf diesem Planeten, sondern gehört der Tierwelt an. Und Tiere brauchen poppen nicht zu erlernen, sondern ist fest in der DNA "gespeichert".
canary schrieb:Sicherlich "lernt" man Verhalten an, aber wenn du eine Maschine konstruieren kannst, die
a) Liebe lernen kann
b) Liebe produzieren kann
...dann nehme ich dich gerne wieder ernst =)
Und wieder die Frage, welchen Vorteil würde es ihr bringen, oder welchen Nachteil, keine Liebe zu kennen?
Sie ist ein Indiz
Nein, wie die optische Täuschung zustande kommt, habe ich oben erklärt und die Erklärung kommt ganz und gar ohne Seele aus.