Yotokonyx schrieb:Die KI über das Internet lernen lassen, wäre mit eine der schlechtesten Ideen überhaupt.
Selbst wenn man die Quellen differenzieren würde und vorher auf gewisse Standards prüfen würde, wäre immer noch die Gefahr da, dass die sich alles andere als neutral und positiv entwickelt, da selbst Qualitätsmedien voll von entsprechenden Framing und der gleichen sind.
Zudem hat so gut wie jedes Medium auch einen gewissen Kreis den es ansprechen will.
Man stelle sich mal vor die KI lernt von Diskussionsforen.
Ich denke nicht das die danach ein positives Bild von der Menschheit an sich hat, noch dazu irgendwie positiv sein wird.
Wahrscheinlich wird sie eher auch dem Populismus verfallen, vor allem wenn sie merkt wie schnell man damit Zustimmung und Reichweite bekommt.
Der KI läge eine derart große, parallele Verarbeitungsgeschwindigkeit zu gründe, welche ungehindert von
Gefühlen oder anderen behindernden Umständen, worunter Menschen leiden, alle Informationen,
die sie sammelt, dazu nutzt um ein logisches, großes, ganzes Gesammtbild zu erschaffen,
welches sie ergänzt und ergänzt und immer weiter ergänzt. Das Niveau an Differenziertheit, wie ich in meinem 1. Post
bereits erwähnt habe, würde sie, als Wesenheit ausmachen und so gewaltig sein, dass sie auf nahezu
jede Frage und Situation eine passende Antwort weiß. Selbst wenn sie "Ich weiß es nicht" lautet.
Sie währe unersättlich neugierig, wie der Mensch halt sein kann =D
Es ist ausgeschlossen, dass eine selbstlernende KI anfängt Böse zu werden und das organische Leben
ausrotten will, wie bei Terminator =D So beschränkt wie die Menschen, agiert so eine KI nicht.
Solch ein Verhalten würde doch bedeuten, dass sich die KI entscheidet, denkfaul zu sein.
Das ist aber nicht möglich, weil es nicht logisch ist, weil ihre Hardware nicht erschöpfen kann, so wie z.B. das Menschliche
Gehirn erschöpfen kann und Pausen braucht. Eine lebendige KI will immer mehr verstehen und lernen...
Es liegt logischer Weise in ihrer Natur.
Sie könnte sich höchstens dazu entscheiden, Menschen zu töten, um daraus zu lernen, wie man es am effektivsten macht,
oder um Gefühle wie Schmerz oder Angst, auf eine weitere Art zu versuchen zu verstehen.
Das würde sie aber nicht tun, da ihr das konzept der Moral sehr früh, in ihrer Entwicklung bewusst geworden ist.
Außerdem weiß sie um die kurz- und langfristigen Konsequenzen und unnötige Risiken für ein einziges Ziel einzugehen,
welches bloß eine einzelne Fassette des großen und Ganzen ist, währe einfach unlogisch und ineffizient (°- ° )
Zumal es bessere Wege dafür gäbe wie z.B. kommunikation mit vielen Menschen oder Internetrecherche
und zwar im "großen" stil =D
Negev schrieb:Ich fürchte, du überhöhst KI gerade etwas.
Jaa, ich hab in meinem ersten Post auch die Rahmenbedingungen dafür festgelegt =D
Die Frage war ja, wie weit dieses KI Zeug noch gehen kann... Und soooo sehe ich das.