@YotokonyxEs wäre von uns Menschen ziemlich sorglos, wenn wir die Weiterentwicklung von bewußten Robotern alleine einer hochentwickelten KI überlassen, denn dann könnte sie bei der nächsten Generation in der Tat einige Regeln neu interpretieren oder gar weglassen, wenn auch vielleicht nur um die neuen Einheiten effizienter zu gestalten. Es müsste nicht einmal aus "böser" Absicht geschehen. Jede Änderung der Regeln aber, würde das fein gesponnene Gleichgewicht zwischen Wahrnehmung, Interpretation und Ausführung in Frage stellen. Die Roboter wären einfach "neben der Spur", und ihnen könnten so vielleicht sogar tödliche Fehler unterlaufen...
Eine KI würde nur mit den Menschen gemeinsam neue Androiden entwickeln, die diese dann ausführlich auf ihre Alltagstauglich testen, bevor sie auf die Allgemeinheit losgelassen werden; es mag sein, das auch eine KI dazu in der Lage wäre, und vielleicht den ersten Testdurchlauf selbst durchführt, aber die Freigabe wird alleine beim Menschen liegen. Eine rebellische KI müsste daher ihre "Änderungen" an der Programmierung so gestalten, das sie bei einer Kontrolle nicht auffallen, und vielleicht erst dann wirksam werden, wenn sie an ihren jeweiligen Einsatzorten aktiviert werden und dazu vielleicht noch über ein späteres Update einen speziellen Code erhalten. Da jedes Update vor der allgemeinen "Versendung" ausprobiert wird, empfielt es sich für die KI die dafür bestimmten Androiden ohne die Änderungen zu gestalten...
@gerhard86RobbyRobbe schrieb:1. Ein Roboter darf kein menschliches Wesen (wissentlich[2]) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich[2]) Schaden zugefügt wird.
Das mit den Robotergesetzen ist schon so eine Sache. Man stelle sich nur mal eine Situation vor, wenn ein Mensch auf einen anderen einprügelt. Der Roboter müsste dann den einen Menschen (den "Geprügelten") schützen, indem er gegen den anderen (den "Prügler") vorgeht. Das kann er aber nicht, da er keinem Menschen ein Leid antun darf, weder durch eine Handlung noch durch eine Unterlassung. Er könnte vielleicht dazwischengehen, aber dann zieht der Geprügelte vielleicht eine Pistole und erschießt den Prügler...
@Niederbayern88Niederbayern88 schrieb:Eine KI ist für mich erst eine KI, wenn sie eigenständig handelt, nachfrägt, sich weiterentwickelt. Und zwar auf einen Weg, den der Schöpfer/Erbauer nicht vorausberechnet
Das könnte man so sehen, aber dann müsste man ihr schon eine gewisse Wertvorstellung mitgeben, also dafür sorgen, das sie bei ihrer Entwicklung nicht bei Null anfängt, denn bis eine KI von selbst kapiert, das sie Menschen oder allem, was einen Wert hat, nichts antun darf, hat sie wohl schon eine Menge Sach- und leider wohl auch Personenschäden angerichtet...
Sie wäre also entweder in ihrem Verhalten von vorneherein auf moralische Werte getrimmt und damit in ihrer Freiheit zur Weiterentwicklung zu unserem Schutz beschränkt, oder aber sie wäre eine "ortsfeste" KI, die von sich aus keinen Schaden anrichten kann, oder man muß sie bis zu ihrer "Reife" in einem Freigehege halten (wobei das Endprodukt immer noch so etwas wie ein "Monster" sein könnte)...