behind_eyes schrieb:Wir Menschen erlernen ja keine Gefühle sondern haben sie, sie sind auf einmal da.
Nee, die sind nicht "auf einmal da". Es gibt ein paar existentielle Bedürfnisse (Essen, Wärme, Berührung) und die "Gefühle" entwickeln sich je nachdem, wie gut die Bindungsqualität der Versorgenden ist, deren Aufmerksamkeit (ob Bedürfnisse zeitnah erfüllt werden oder gar nicht, bzw. ob sie angemessen erfüllt werden.) Und auf dieser Grundlage laufen dann unsere "Programme", bzw. lassen rationales Handeln zu oder behindern es. (Stark vereinfacht, natürlich.)
skagerak schrieb:Irgendwelche Überlebensvorteile halt, oder so.
"Schönheit" dient nicht dem über-leben, sondern damit man den Rest aushält.
behind_eyes schrieb:Das wäre halt ne rationale Entscheidung.
Sollen die denn echt immer alleine fahren? Dann brauchen sie keinen "Sinn dafür". (Solange sie nicht "leiden", brauchen sie den nicht.)
Aber die Information darüber, dass wir "Schönheit" als Wert haben, für die Fälle, wo es um konkrete Kooperation geht, das wär nützlich.
behind_eyes schrieb:wir müssten sie als Individuum anerkennen
Warum sollte man nicht "alle" Computer/KIs als so was wie Bäume sehen? Aber keine Einzelindividuen, i.S.v. "Personen". Nadelgehölze für die autonomen Autos und Laubhölzer für die ganze Familie. Aber bitte nix, was man beerdigt wie ein Haustier. Oder? (Wenn die echt schlau sind/werden, wollen sie dann hoffentlich auf nem Schrottplatz kompostiert werden, alles andere fänd ich Murks.)
skagerak schrieb:Nun ja, gibt es dieses "wertfreie gut/böse" denn wirklich? Das ist so als bräuchte ich einen Raum für den Raum, um den Raum zu beschreiben...irgendwie.
Hä? Du erstaunst mich. Für mich ist "gut/böse" eher ein "Raum für den Raum, der den Raum beschreibt" - statt geradeaus zu denken.
Entweder hat man ein "richtiges" Ergebnis, oder noch keins. (Horror vacui.)
Da kommt bei uns der "böse Fehler" rein, der uns beim "Rechnen", also wirklich klar (rundum) Denken, stört.
Ne KI müsste sich damit ja nicht aufhalten müssen. Aber die Antworten verantworten können.
Und beim Messen meinte ich, dass es doch unsinnig ist, z.B. bei einem Maßband die "Null", also den Anfang als "geringer" anzusehen als die 100, bei der der Meter voll ist. Wichtig ist doch eher (auf´s Leben, nicht KI bezogen), zu wissen, ob es um Inch oder Zentimeter geht. Ne KI muss "messen" und "werten" auseinanderhalten, nicht Moral haben.
"Über Werte orientiert sein" hat nichts damit zu tun, ob man ein Gewissen hat oder nicht.
"Transparenz" darüber, wie man dahin kommt, wo man ist, reicht für das Konzept "Verantwortung" vollkommen aus.
skagerak schrieb:Was wäre das denn alternativ? Leben oder nicht Leben?
Ich sprach im Beispiel noch von den "Raumrichtungen", also der neurologischen Grundlage für "Orientierung". Es wäre also so was wie "Hier" (statt "ich") und "Woanders". Wobei dieses "Wo? anders" dann die (noch) zu bestimmende Größe wäre.
Und nicht wie wir dummen Individuen, die mit "Ego" (hier) und "Fremd" (anders) operieren und uns an "unsere Werte" klammern oder sie leugnen, statt was zu reflektieren.
skagerak schrieb:Naja, Angst vor Fehlern zu haben, ist doch auch gleichbedeutend damit, überleben zu wollen, oder? Ur-Angst halt.
Nee, eben nicht. Wir haben "Erbsünde" und sollen dem lieben Gott gehorchen. (In unserer Gut/Böse Konstruktion.)
Wir wollen doch ne KI, die die Aufklärung mitgehen kann, oder?
Und wenn wir ihr schon keinen "Mut" einhauchen können (ihren Verstand zu gebrauchen), sollten wir es mit "Spass am Lernen" versuchen. Bzw. das tun wir ja, wir wollen ihr "Lernen" beibringen, nicht verderben.
Es reicht, beim "Handeln" keine Fehler zu machen. Dass dies beim "Denken" nicht so sein muss, ist der hehre - und berechtigte -Anspruch der Aufklärung, kulturell aber eher ein Stiefkind. Wir bringen uns bei, Angst zu haben, obwohl es uns frei stünde, mehr richtigen Spass zu haben, nicht nur am Konsumieren, sondern am Leben.
Da das mit dem "Spass" für ne KI ja eher Unsinn ist, müssen wir, wenn wir da Intelligenz haben wollen, zumindest unsere Fehlerkultur dekonstruiert haben, bevor wir weiter kommen. Jedenfalls soweit ich unsere Neurologie verstehe.
Unsere Hardware funktioniert ja tatsächlich mit "Fleisch", also Materie.
Und dieses "Fleisch" lernt. Als Kind viel, später deutlich langsamer.
Und hat Angst vor Fehlern. Weil es bislang noch nie in der Geschichte mit "sauberen Daten" gefüttert wurde.
(War ja mein Einstieg: warum hat keiner Angst vor "natürlicher Intelligenz".
In Anbetracht des Klimawandels wird es Zeit für diese Frage, finde ich.)
Nochmal: messen können die simpelsten Computer. "Werten", also "ein Urteil fällen" oder auch nur "Entscheidungshilfen liefern" bedeutet, viel mehr Kontext in eine sinnvolle Ordnung zu bringen.
Da geht es nicht mehr um "Antworten" (Messergebnisse), da geht es um Fragestellungen. "Handlungsplanung".
Und da liefern "Fehler" die nötigen Indizien zum Lernen. Nichts sonst.
"Feinabstimmung". Nicht "richtig oder falsch".
(Da kriegt "der will doch nur spielen" ein ganz andres G´schmäkle, findet ihr nicht?)
Also ein gewisses Maß an "Angst" i.S.v. Vorsicht ist angebracht - an dem Punkt, wo eine Entscheidung/Urteil in eine konkrete Handlung übergeht. Ein Programm, ein Parameter festgelegt wird. Ein Mensch hört "da" halt auf (zu lernen, "Konstrukte selbst zu gestalten") weil zur "Verantwortung" dann der Mut fehlt - oder der Einfluss. (Kurzfassung. Ich will da jetzt nicht weiter über "Urteilsfindung" räsonieren.)
Aber geht es echt um "Moral"? Ne KI sollte "denken" können, die muss unsere "Meinungsfreiheit" nur aushalten können...
Ein "Urteil" ist zwar zur individuellen Meinungsfindung/Bildung wichtig, aber etwas anderes als eine Entscheidung, bzw. deren Vollzug.
Das wäre beim "selbst" Programmieren aber natürlich wesentlich, der Überblick über diesen Unterschied (zwischen denken/planen und handeln/programmieren).
Und es ist nicht so, als hätten wir den, kommt es mir vor - "Landkarten erstellen", statt "Minen suchen spielen" müsste auf dem (Lern-)Programm stehen. Damit die KI sich später "gut" i.S.v. "richtig", also "den Umständen entsprechend/angemessen" steuern kann.
So ne "erste echte KI" wär ja ihre eigenen Eltern, wenn das "Selbstkorrigierend" sein können soll.
Den Punkt müssen wir bei ner KI knacken, in meinen Augen. Mit Gefühl oder Moral hat das gar nicht so viel zu tun.
"Orientierung" reicht da als Oberbegriff doch erst mal aus.
Da kann man dann von mir aus "das Böse" in Form von "zu vermeiden"/schlecht installieren, da sähe ich kein Problem.
Aber lieber in Form eines "die Dosis macht das Gift" - Algorithmus, der überall ne Feinabstimmung zulässt.
(Gibt´s so was? Ich bitte höflich um Entschuldigung, wenn das eine sehr dumme Frage ist. Wär aber an einer Antwort sehr interessiert.)
Aber man kann nix reparieren, wenn man "den Fehler" nicht wahrnimmt. Und das fänd ich bei ner KI ziemlich am wesentlichsten, diese Möglichkeit zur "Einsicht" und Reparatur.