cRAwler23 schrieb:Je komplexer eine KI wird (besonders im Verbund neuronaler Netzwerke), umso höher wird auch die Wahrscheinlichkeit, das jene KI auch ein Bewusstsein entwickeln könnte, bzw. zu einer art synthetischen Lebensform wird. Ich denke eine KI mit Bewusstsein, die selbstständig Entscheidungen treffen kann, die selbstständig nachdenken kann, die lernfähig ist und vielleicht auch Empfindungen und Emotionen entwickeln kann, kann man auch als vollwertiges Lebewesen betrachten, der Anfang einer künstlichen Evolution, die die natürliche Evolution ergänzt.
Ich denke nicht, das dies eine bloße Frage der Komplexität ist. Emotionen und Bewusstsein (welches ich unterteilen würde in die Komponenten "internalisierte Zielsetzung" [also die Fähigkeit Ziele zu setzen, die nicht-trivial mit den Ausgangszielen zusammenhängen. Z.b. wenn ein Programm, dessen Aufgabe es wäre Menschen in einem bestimmten Spiel zu schlagen anfangen würde Methoden zur psychologischen Manipulation zu entwickeln ohne das dies dem Programm von irgendjemanden so gesagt wurde] und "selbstreferentielle Abstraktion" [die Fähigkeit sich selbst als die handelnde Entität zu begreifen]) entspringen einer sehr speziellen Entwicklung mit einer sehr unspezifischen Zielstellung ("Propagation des eigenen Erbgutes in einer Umgebung voller Entitäten mit der selben Zielstellung"). Bei der Entwicklung einer KI ist dies gänzlich anders. Eine KI muss sich keine Sorgen machen Jagdentitäten zu entkommen (was einerseits die Bildung einer wesentlichen Emotion verhindert [Angst entstammt ja im wesentlichen aus der Notwendigkeit schnell einem Jagdtier zu entkommen ohne lange darüber nachzudenken] und andererseits der entwicklung der selbstreferenziellen Abstraktion entgegenwirkt [eine Lebensform die ohne selbstreferentielle Abstraktion planen würde, würde scheitern zu begreifen, das es wenig sinn macht, nach einem Stück Nahrung zu gehen mit der Planung dieses einzubunkern, wenn diese Handlung dazu führen würde dass diese Lebensform selbst gefressen wird]) oder die eigene Vermehrung sicherstellen (was der Entwicklung von anderen wesentlichen Emotionen, im wesentlichen derer die eine Bindung mit anderen Mitgliedern der eigenen Spezies ermuntert entgegensteht) und vom Ursprrungsziel abweichende Ziele würden wohl unterbunden werden (niemand würde seine Autoentwicklungs-KI Rechenzeit darauf vergeuden lassen, Gedichte zu schreiben).
Aus diesem Grunde bezweifle ich, dass die gegenwärtige KI-Entwicklungsmethode (Künstliche Neuronale Netze die mittels Maschinenlernen auf die gewünschte Aufgabe hin-optimiert werden bis sie darin besser sind als es ein Mensch je sein könnte) überhaupt ein Bewusstsein (bzw. ein Bewusstsein das wir als solches erkennen würden) entwickeln lässt, egal wie Komplex das KNN ist. Die einzige Möglichkeit, zu einer digitalen Entität mit einem Bewusstsein zu kommen wäre meines Erachtens, ein digitales Analogon zu einer Biologischen Vorlage zu konstruieren (was dann meinen Empfinden nach aber keine KI wäre, da es ja keine "künstliche" Intelligenz wäre, sondern "nur" die natürliche Intelligenz übertragen in ein künstliches Medium).
Natürlich kann es sein, dass ich mich in dieser Hinsicht irre, und dafür wurde in diesem Thread die Regel entwickelt:
Ein Programm gilt dann als bewusst und mit Rechten behaftet, wenn es aus eigenen Antrieb diese Rechte einfordert, eine kohärente Begründung für diese Forderung liefert Und beweisen kann, daß diese Anforderung samt Begründung kein von dritter Seite vorprogrammiertes Verhalten ist.. Dies ist durchaus ein geeigneter Test für Bewusstsein, den es testet einerseits die internalisierte Zielstellung (den das Verlangen nach Rechten ist nicht trivial verbunden mit irgendetwas außer der Zielstellung diese Rechte zu erlangen) und andererseits die selbstreferenzielle Abstraktion (den ein Programm das sich selbst nicht als handelnde Entität begreift würde nicht auf die Idee kommen, Rechte haben zu wollen).
Aber damit kommen wir zu der Frage, die ich hier auf der letzten Seite stellte: wie funktionieren Ethik und Rechte im Bezug auf eine Entität, die problemlos identische Kopien von sich selbst herstellen kann und deren normale Methode der Fortbewegung ist, am Zielort eine Kopie von sich zu machen und sich am Ausgangsort zu löschen?