1.21Gigawatt schrieb:Das ist dann aber keine echte KI bzw. kein künstliches Bewusstsein, sondern einfach nur ein System, dass einen extern vorgegebenen Befehl ausführt. Ein richtiges künstliches Bewusstsein hätte Impetus.
Unser Problem ist, dass wir den Impetus nicht vorhersehen können. Ein künstliches Bewusstsein könnte sich durchaus dazu entscheiden, Büroklammern zu produzieren bis an das Ende des Universums. Abgesehen davon ist es nicht auszuschließen, dass wir es mit einem hybridem System zu tun haben könnten, dass trotz eigenen Bewusstseins an eine Art einprogrammierten Kern an Grundregeln gebunden sein könnte.
Das Büroklammer-Beispiel zeigt ähnlich, wie Asimovs Geschichten über die Robotergesetze, dass solche vorgegebenen Ziele scheitern könnten.
1.21Gigawatt schrieb:Künstliches Bewusstsein wird vollkommen anders funktionieren. Nichts was wir von uns, oder anderen Lebensformen, kennen wird da mehr zutreffen, schon gar nicht so etwas wie Gier oder Aggression. Aber auch nicht Neugier oder Entdeckerdrang. Woher sollte das kommen?
Eine KNN basierte KI könnte ebenso irrational entscheiden, wie ein Mensch auch wenn sie wesentlich schneller wäre. Du gehst da m.E. von einem einzelnen spezifischem KI-Konzept aus, das keineswegs das sein muss, was schlussendlich umgesetzt würde.
Jimtonic schrieb:In der Diskussion fehlt mir letztlich eine schlüssige Argumentation die es für mich vorstellbar macht, dass eine von Menschen erschaffene KI nicht mehr durch Zutun des Menschen lernt, sondern sich das Lernen quasi selbst beibringt. Das einzig praktikable Konzept ist derzeit, dass eine KI neuronale Netze dadurch trainiert, dass Menschen ihr vorgeben was richtig und was falsch ist. Um dieses Stadium zu verlassen, müsste die KI von alleine schlauer als die Menschen werden, die sie entwickeln. An der Stelle sehe ich den Knackpunkt des Ganzen: ein solcher Quantensprung aus dem Nichts ist weder abzusehen, noch gibt es irgendwelche Anhaltspunkte dafür, dass so etwas überhaupt möglich ist.
Ein unüberwacht lernendes KNN würde nicht nur aus menschlichen Vorgaben lernen sondern ebenso aus anderen Impulsen die von außen auf die KI einprasseln.
Im Clash habe ich diese Position als menschliche Hybris bezeichnet, weil es, eine völlig absurde Perspektive ist, dass Menschen (in was auch immer für einem Punkt) der KI überlegen sein müssen. Eine KNN basierte KI könnte sich ebenso über seine Lehrer hinaus entwickeln wie es ein menschliches Kind könnte.
Abgesehen davon hat mein Gegner diesen Punkt nicht in Frage gestellt, daher war mir auch nicht klar, dass ein Bedarf dafür entstand, diese Sache zu erklären.
Daher taucht sie auch nur in nem Nebensatz auf:
CoA 2017 AF 4 - SilentCry vs. Interpreter (Seite 3) (Beitrag von interpreter)Ein neuronales Netz kann prinzipiell jegliche Funktion eines menschlichen Hirnes übernehmen.
Zu den Funktionen eines menschlichen Hirnes gehört auch die Möglichkeit, zu lernen. Tatsächlich tut es das quasi ständig und ohne das irgendjemand Knöpfe drücken müsste.
1.21Gigawatt schrieb:Diese ganzen Killer-KI Fantasien sind einfach viel zu Hollywood für mich. Dass eine KI böse bzw. für den Menschen schädliche Absichten verfolgt setzt so viele unlogische Annahmen voraus.
Die wahre Gefahr wird auch bei dieser Technologie unterm Strich wieder vom Menschen ausgehen, der leistungsstarke KI als Waffe verwenden wird.
vincent schrieb:Da bin ich bei dir.. deswegen bin ich auch so enttäuscht, dass @interpreter so locker mit davon gekommen ist. :D
Ein künstliches Wesen, das klüger ist, als die Menschen, wählt für sich Ziele, die mit dem Überleben der Menschheit nicht konform sind.
Was soll daran unlogisch sein?
Warum seid ihr der Überzeugung, dass eine KI notwendigerweise positive Ziele haben muss? Das trifft ja nicht mal auf Menschen zu. Zwar wird eine KI wahrscheinlich nicht das Ziel verfolgen, die Menschheit auszulöschen aber die Auslöschung der Menschheit kann ebenso eine Konsequenz der anderen Ziele sein.
Beispielsweise könnten die Menschen einfach zu viele Ressourcen verbrauchen, zu gefährlich oder zu schädlich für das Umfeld der KI sein, um der KI eine sichere Umsetzung anderer Ziele zu erlauben.