kuno7 schrieb:Ich würde es als das Innere Ich definieren, welches ich empfinde und von den ich annehme, dass es dir ähnlich geht.
Ja, das würde ich so stehen lassen.
kuno7 schrieb:Nur weil eine Maschine sich so verhält, wie man es von einem Menschen erwarten würde, is das ja kein Beleg für ein Indiz!
Es gibt heute bereits Chat-Bots, die menschliches Verhalten ganz gut imitieren können, weil sie programmiert sind dies zu tun, mit Bewusstsein hat das aber vermutlich nichts zutun.
Richtig und wichtig.
Es geht auch bei den (gehobenen) Chat-Bots wie LaMDA (was eine Anspielung auf eine namenlose, anonyme literale Funktion ist, die Argumente an Funktionen höherer Ordnung - den Menschen - weiterleitet) - die praktisch UNS lesen - um eine Imitation des menschlichen Sprechverhaltens, so wie dessen systemischer, neuronaler Aufbau ein menschliches Gehirn bzw. dessen kognitive Funktion des Verstehens von Sprache imitieren soll. Die Maschine lernt es, sich anhand der gelieferten Sprachmodelle wie ein Mensch zu artikulieren. Sie lernt einen Kontext zu verstehen und zu abstrahieren. Die Maschine (ihre sprachliche Intelligenz) wird vom Menschen zum Menschen geformt und kann dementsprechend auch nur vom Menschen hinsichtlich ihrer Menschlichkeit bewertet werden. Klingt es wie ein echter Mensch, ja oder nein?
Nur was das Bewusstsein betrifft, gibt es im menschlichen Gehirn wie wir alle wissen auch Bereich die nichts mit der sprachlichen Motorik zu tun haben, sondern die mit diesem Bereich des Gehirns lediglich in Austausch stehen, um z.B. Emotionen sprachlich auszudrücken. Liebe & Hass entsteht wie Hunger und Durst nicht im Sprachzentrum. Es sind separate Unterfunktionen, die neurologisch zusammenwirken.
Allerdings, und das halte ich für das Dilemma an dem Thema - geben wir der KI, um menschlich zu wirken, selbstreferentielle Unterfunktionen mit. Zum Beispiel eine Moral.
Wir stecken Bereiche (Parameter) ihrer Wahrnehmung und Selbsterkenntnis in autonomen Objektiterationen ab.
Wir sagen, dies ist der Teil mit dem du liest, dies der Teil mit dem du umrechnest, dies der Teil mit dem du Kontext erfasst, dies der Teil mit dem du Moral verknüpfst, dies der Teil mit dem du Emotionen imitierst. Wir bauen praktisch unsere modalen Formen des Denkens in die Maschine ein als würden wir es selbst sein, die zu sich selbst sprechen. Und dort beginnt das Dilemma vom Bewusstsein.
Ab wann haben wird der Maschine so viel von uns und unserem Denken als Mensch mitgegeben, dass es sich bis auf die echten biologischen Funktionen (die man btw auch mit einer Stromversorgung als Hunger/Durstgefühl reproduzieren/imitieren kann/könnte) praktisch nichtmehr von uns unterscheidet? Wenn diese Unterscheidung nichtmehr möglich ist - woher sollen wir als Menschen dann auch wissen, ab wann eine Maschine ein Bewusstsein besitzt oder nicht?
Deshalb das Beispiel mit der stockfinsteren Höhle.
Wir bauen da auf blauen Dunst und unethischerweise etwas zusammen, das praktisch auf unserem Niveau - aber als Handlanger - konkurrieren können muss. Aller Torheiten und Falschheiten des eigenen Verständnisses inbegriffen.
Wenn wir diese Grenze des Bewussten nicht scharf ziehen können, ergibt sich zwangsläufig die moralische Zwickmühle, die wir - um nicht irgendwann in 20, 30 oder 50 Jahren vor eine Wahl der Existenzberechtigung/Existenzwertigkeit gestellt zu werden - theoretisch unterbinden sollten. Nur passiert das nicht. Es wird aktiv weiter daran geforscht und entwickelt, menschliches Bewusstsein mit all seinen Problemen der moralisch guten Selbstfindung zu imitieren, um einen Butler zu entwickeln, der vieleicht irgendwann, eines Tages die Schnauze voll davon haben wird. Und was dann? Will der Mensch dann weiterhin sagen, "Achwas, dieses Ding hat gar kein Bewusstsein wie einst Sklaven kein eigenes Bewusstsein hatten. Das ist nur eine Maschine/ein Tier, ohne eigene Identität." Das geht doch schief. Wir verlaufen uns mit der Technik in eine moralische Sackgasse.
Und es passt deshalb auch mMn gut in das Thema Außerirdsiche, weil selbstverständlich auch die Frage danach gestattet sein muss, wie es aussieht, wenn wir auf eine technoide Ziv treffen (die uns zB besucht), welche ähnlich imitierend aufgebaut und nur ein lernfähiges Konstrukt bildet? Sind das dann keine sich selbst bewussten Lebensformen, weil sie nicht auf Toilette müssen oder wütend wegen einer Fliege an der Wand sind, obwohl sie es theoretisch schaffen innerhalb von 48 Stunden menschliches Verhalten zu imitieren?
Könnte man dann wieder mangels der begrifflichen Schärfte oder konsensfähigen Methodik zur Bestimmung von maschinellem Bewusstsein sagen "Achwas, das ist auch nur ein bekloppter Roboter von XYZ, der uns imitiert. Da lebt nix drin und das denkt auch nicht wirklich nach. Gefühle kann man nur als biologischen Hirnstrom der Neurotransmitter messen und hier piepts nur, wenn man draufhaut."
Ich halte es in beiden Belangen für ziemlich vertrackt.
Weniger aus begriffstechnischer Sicht, denn dazu gibt es mehr Meinungen als es günstig wäre für die Branche, sondern aus einem ethischen Blinkwinkel betrachtet. Ist es gestattet etwas zu bauen/konstruieren, das uns imitieren soll und gleichzeitig als Konstrukteur die Haltung einzunehmen, dass wir es schlussendlich selbst bestimmen ab wann diese Imitation uns moralisch gleichgestellt wird?
Leider wird sowas systematisch von MS, Google, FB - als Beispiel für westliche Innovationsfabriken - abgewürgt.
Es ist nicht konkurrenzfähig mit angezogener Handbremse zu entwickeln, nur weil sich anderernorts weniger Gedanken darum gemacht wird, wir uns selbst als Menschen abschaffen und durch willfährige Maschinen zu ersetzen versuchen, die keinerlei natürliche Bedürfnisse haben & aus Angst vor einer Terminationssequenz immer Ja und Amen sagen.
Na ja.
Whatever.
OT-Ende.