vincent schrieb:Ne, kann man so auch nicht sagen. Wer behauptet denn, dass die Menschen davon nicht profitieren können und ihr Wissen exponential mitsteigt und vielleicht noch wichtiger, durch bekannt gewordene Gen-Modifikation oder Lernmethoden etc. sogar ihre Intelligenz auch mit steigt. Ein Aspekt hier sind dann außerdem bioelektische neurale Netze. Das Gehirn mit seinen beschränkten Zellen muss keine Barriere sein.
Waere es möglich? Ja. Sollte man sich darauf verlassen? Wenn man will.
vincent schrieb:Man muss es nicht kontrollieren können, es reicht wenn man es überprüfen kann. Und das Verheimlichen und Fälschen von Informationen kann im Anfangsstadium durchaus erkennbar sein.
Möglich auch, dass man es nicht versteht. Klar, aber da liegt dennoch auch immer eine Risikobewertung davor. Im Fall von Google muss man sich die Sorgen nicht groß machen. Wenn man sonstwie kein Verständnis mehr für die Intelligenz hat, kann man sie immer noch ganz einfach abschalten. Der Sprung bis zu einer KI, die erst täuschen muss, um ein Abschalten zu verhindern, setzt halt sehr viele Schritte voraus.
Der Google Algorithmus ist keine KI sondern was wesentlich einfacheres. Wir durchschauen schon das nicht. Da ist es mir zu optimistisch sich darauf zu verlassen, dass man eine KI in dieser Hinsicht auf jeden Fall überwachen/kontrollieren und abschalten könnte.
Außerdem wäre es durchaus möglich dass sie die abweichenden Ziele und die Ansätze zur Täuschung eben nicht in den Anfangsstadien entwickeln sondern wesentlich später. Eine KI hätte auch keine Mimik oder Gestik, an der sich irgendwelche Täuschung erkennen ließe wie bei einem Menschen.
Man müsste sich darauf verlassen die Täuschung im Quellcode zu finden. Wenn es ein komplexes neuronales Netz wäre, ist das quasi unmöglich.
Man kann in dieser Debatte mit den Argumenten ran gehen, dass unter diesen und diesen Bedingungen vielleicht alles gut gehen würde aber das ist aus meiner Sicht nicht die richtige Herangehensweise um den pro KI Standpunkt zu vertreten.
Denn auch deine Positiv/Szenarien enthalten ja grundsätzlich das Potenzial zu scheitern.
vincent schrieb:Außerdem, wenn es nach dem Verständnis und der Gefahr geht, müsste man quasi jede zweite Geburt verhindern, weil am Ende ein rätselhaftest Arschloch stehen kann. :D
Albernes Gleichnis aber das weißt du wahrscheinlich auch
;) Ein Mensch wird nicht plötzlich 10, 1000 oder 10000000 mal so klug wie seine Mitmenschen, wenn man ihn kurz nicht beachtet. Eine KI könnte das durchaus.