Werden humanoide Roboter u. Seed AI irgendwann gefährlich für uns?
17.11.2011 um 09:53So sieht es aus! So eine Superintelligenz kann unsere letzte Rettung sein und den Menschen in eine neue Evolutionsstufe fuhren.
GrandOldParty schrieb:Natürlich müsste man einer Superintelligenz einen menschenfreundlichen Kern geben. Außerdem wäre eine echte Superintelligenz nicht nur logisch denkend.Das ist ein lobenswerter Ansatz, aber auch unter normalen Menschen gibt es so manche "Herzchen", die mit ihren Mitmenschen und auch mit sich selbst nicht so optimal umgehen, wie wir es gerne hätten, und diese Menschen haben ein aufeinander abgestimmtes durch Jahrmillionen Jahre der Evolution geschaffenes Bewußtsein. Wie soll dann aber eine Superintelligenz mit "normalen" menschlichen Empfindungen umgehen können, die nicht auf ihre Fähigkeiten und Möglichkeiten abgestimmt sind ? Und wie würde sie uns behandeln, wenn sie uns nach ihren Maßstäben misst ?
NeoDeus schrieb:...könnte er irgendwann auf den Trichter kommen, dass der Mensch eine Bedrohung darstellt. Für Menschen, die Erde, die Tiere und zu guter letzt auch für die Maschinen. Wäre das nicht auch logisch ;)Ja, das wäre eine Möglichkeit. Der Mensch als unvollkommenes Wesen, das sich nicht so durch eine überlegene Maschine belehren lässt, wie sie es gerne hätte, und wie es -mit Einschränkungen- vielleicht nötig wäre, dieser Mensch müsste dann vielleicht einer "besseren" Ordnung weichen, wenn die Erhaltung des Ganzen den Vorzug vor der Erhaltung einzelner Elemente einnehmen würde. Für die Maschine möglicherweise logisch, für die Menschen dagegen...
GrandOldParty schrieb:Das würde nicht passieren.Eine "dumme" KI könnte uns dann Schaden, wenn sie das Sagen hat, also quasi allmächig wäre. Wir müssten ihr genauso gehorchen wie einer uns beherrschenden Superintelligenz. Man kann dann darüber streiten, ob einem die offensichtlich dämlichen Befehle einer dummen KI lieber sind, oder aber die tiefsinnigen aber unverständlichen Entscheidungen einer echten Superintelligenz. Ich würde vielleicht der dummen KI den Vorzug geben, weil man sie besser wieder loswerden könnte, indem man sie einfach austrickst...
Entweder ist eine KI dumm, dann kann sie uns auch nicht schaden.
prima_nox schrieb:Im Bezug auf das selbstständige Lernen von Fähigkeiten, also die eigene KI eigenständig weiter zu entwickeln, würde es ja heißen das der "Roboter" sich selber Programmiert, damit wer es auch möglich das er eines Tages auf bestehende Regeln, Tabus in der eigenen KI zugreifen könnte und diese abändern könnte.Ja, das wäre tatsächlich ein Problem. Was würde es uns denn nützen, wenn wir verbindliche Gesetze in eine Superintelligenz etablieren, die diese dann doch nach und nach außer Kraft setzen könnte, indem sie sie einfach abändert oder umgeht ? Irgendwann könnte sie dann auf die Möglichkeit kommen, das sie ohne uns besser dran wäre und diese "straflos" in die Tat umsetzen...
GrandOldParty schrieb:Dann aber wird sie verstehen, dass es vielleicht "logisch" wäre, alle Menschen zu töten. Aber nicht richtig.Wiederspricht sich das nicht ? Warum sollte eine KI zwischen richtig oder falsch entscheiden, wenn die eine Möglichkeit, die logische wäre?
prima_nox schrieb:Früher oder Später werden diese Humanoide Roboter für Sexuelle zwecke gebaut werden.wenn man sich die jetztigen "Love dolls" bei YT anschaut, dann kann man getrost davon ausgehen, dass diese Teile bald als Sexspielzeug herhalten werden.
Belafonte schrieb:Also die im Video gezeigten Roboter sind doch recht schnell als Puppen zu erkennen.Das ist richtig, aber ich gehe davon aus, dass das äußerliche recht schnell auf den Level einer perfekten Kopie kommt. Wenn man sich die platische Chirurgie von heute anschaut, kann mittlerweile alles nachgeformt werden.
Belafonte schrieb:Laufen können sie scheinbar auch nicht.Die Puppen in dem Fall nicht, aber die Roboter z.B von HONDA oder von Boston Dynamics können perfekt laufen... es ist nur eine Frage der Zeit, bis da die Techniken untereinander ausgetauscht werden und da eine Haut drübergezogen wird, wie bei den Puppen...