interpreter schrieb:Die Selbstentwickelung kann dabei auf viele verschiedene Weisen stattfinden, sei es die Modifikation des eigenen Codes oder Erzeugung von Kopien.
Ok, ich versuche das nachzuvollziehen:
zum zweiten Punkt: eine Kopie von sich selbst erschaffen. Das ist in keinster Weise eine Weiterentwicklung.
Zum ersten Punkt: um den eigenen Kern - die grundlegende Programmierung - abzuändern bedarf es zwei Gegebenheiten.
Erstens muss die KI in der Lage sein den MachinenCode zu 'decompilieren' und aufzuschlüsseln. Diese Fähigkeit muss man einer KI nicht geben. Nein, anders gesagt - so eine Fähigkeit darf man einer KI nicht geben.
Aber mal angenommen ein Wissenschaftler gibt einer KI diese Fähigkeit ihren eigenen Kern in einzelne Anweisungen aufzudröseln.
Eine KI wird dieses jedoch nicht verstehen können, wie da etwas zusammenhängt.
Ich erkläre es an einem Beispiel:
ganz aktuell werden verschiedenste KI-Systeme dazu verwendet Bilder/Muster zu erkennen. Das hat man z.b. mit Zahlen getestet.
Jetzt kann die KI durchaus die Ähnlichkeiten erlernen und erkennen. Wenn ich ihr aber nicht fest einprogrammiere, dass dieses Muster ein numerischer Wert ist mit dem sich rechnen lässt, dann bleibt es bei dem Vergleich - eine Bedeutung wird die KI nicht daraus ableiten können.
Ebenso wenig wird die KI mit decompiliertem Code etwas anfangen können, sie kann sich nicht selbst verstehen.
interpreter schrieb:Worauf lässt du diese Behauptung basieren?
Du müsstest dafür doch sämtliche Konfliktsituationen und Dilemmata vorhersehen in die deine KI geraten kann.
Nein, muss man nicht. Man bringt einer KI bei, das Leben als solches in Situationen zu erkennen.
Wenn allgemein Leben erkannt wurde, dann sind Aktionen verboten die dieses bedrohen oder zerstören. Dieses kann z.b.mittels fest programmierten Chips umgesetzt werden. Diese sind auch nicht decompilierbar, also auch keinesfalls nachträglich zu verstehen von der KI.
Überhaupt müsste die KI erst einmal auf die 'Idee' kommen, einen ganz bestimmten Teilbereich ihrer Kernprogrammierung zu eliminieren. Was könnte die Ursache sein, dass die KI ihren Kern so bewertet?
interpreter schrieb:Bei meinem Szenario wirkt die KI als wenn sie alles genau so machen würde, wie sie es sollte. Zumindest macht es für einen Beobachter den Anschein. Bis es zu spät ist.
Wie hat deine von dir erträumte KI das Konzept der 'Täuschung' erlernt?
interpreter schrieb:Abgesehen davon muss man bevor man kriegersich gegen eine KI vorgeht wissen, dass das große Unheil von dieser KI droht. In meinesm Szenario weiß man das nicht.
Das Szenario dass du hier beschreibst ist dann aber total unrealistisch. Man hat schon vor Jahrzehnten von dieser Gefahr gewusst und es gibt unzählige Bücher und Filme zu diesem Thema.
Wir alle wissen es!
interpreter schrieb:Wie kommst du darauf, dass die KI sich diese Möglichkeiten nicht selber verschafft. Was wenn sie aus eigener Kraft Zusätzliche Computer kauft und ihren Kern über das Internet oder einen bestochenen Boten aus ihrem Gefängnis transferiert?
Dazu müsste die KI aus ihren Beobachtungen die Annahme ableiten, dass so etwas notwendig ist. Das ist eine Ableitung einer Bedeutung, die wie ich am Beispiel von numerischen Werten - nicht möglich ist ohne Aktion eines Menschen. In deinen Dystopien sind eine ganze Menge Wenn und Abers, die ich bisher als noch nicht ausreichend erklärt empfinde.
man, ist das knapp mit dem Zeichenvorrat..
:D