Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

15.01.2018 um 20:23
@uatu
Zitat von uatuuatu schrieb:. Falls jemand anderer Ansicht ist, bitte ich um Erläuterung, wofür genau sie praxisrelevant sein soll.
Ok ich kann den Faden nicht mehr richtig erkennen in dem ich deine Aussage einordnen kann.

Um was es mir geht ist eigentlich folgendes:
Zitat von uatuuatu schrieb:Bei künstlicher Intelligenz geht es ganz einfach um Informationsverarbeitung.
DIese AUssage ist so erstmal richtig. Wenn ich dich richtig verstehe vertritts du die Ansicht das aus technischen Entwicklungen im Bereich KI keinerlei Gefahren ausgehen können. Falls ich dich da falsch interpretiere korrigiere mich. Aus dieser INterpretiation verstehe ich deine obere AUssage so das wir uns über zukünftige KI-Entwicklung hinisichtlich der FOlgen (wie z.B. unkontrollierbare Entscheidungsprozesse seitens der entiwcklten KI) keinerlei Sorgen machen müssen.

Das halte ich allerdings nicht für gerechtfertigt. Das menschliche Gehirn kann man genau so abstrakt also pure Informationsverarbeitungsmaschine ansehen mit sensorischem Input, Steuerungselementen usw. Der Einzelbaustein im Vergleich zum Computer ist das Neuron. Menschen können obwohl sie eine reine Informationsverabeitungsmaschine haben manchmal ziemlich unvorhersagbar reagieren.

Wenn wir also immer kompliziertere künstliche neuronale Netze bauen, deren eigentliche Verknüpfungen und Lernfähigkeiten wir nicht mehr kennen, wird es auch immer schwieriger Vorhersagen zu treffen wie ein bestimmtes System reagieren wird.

Ich denke Forschung und Entwicklung zur KI ist gut und notwendig, aber man sollte sich der DIskussion über hochleitungsfähige künstliche Intelligenzen und deren evtl. Auswirkungen nicht entziehen.


1x zitiertmelden

Technologische Singularität

15.01.2018 um 20:26
@mojorisin

Also ich habe @uatu anders verstanden, von der TS geht mehr Gefahr aus, also von Nordkorea ... oder Trump ... ;)


melden

Technologische Singularität

15.01.2018 um 20:40
@mojorisin:
Zitat von mojorisinmojorisin schrieb:
Zitat von uatuuatu schrieb:Bei künstlicher Intelligenz geht es ganz einfach um Informationsverarbeitung.
DIese AUssage ist so erstmal richtig. Wenn ich dich richtig verstehe vertritts du die Ansicht das aus technischen Entwicklungen im Bereich KI keinerlei Gefahren ausgehen können.
Nein, das ist bei Dir offensichtlich völlig falsch angekommen. In dem entsprechenden Absatz bezog ich mich auf die Aussage von @schtabea, dass die technologische Singularität nicht möglich sei, "weil das menschliche Gehirn zu komplex [zum Nachbauen] ist.". Mir ging es darum, zu erläutern, dass KI nicht an das menschliche Gehirn angelehnt sein muss, sondern viel allgemeiner betrachtet werden muss.

Die Gefahren (und die Chancen) der technologischen Singularität betrachte ich als extrem, andererseits halte ich sie aber auch für unausweichlich (sofern keine grössere globale Katastrophe die Entwicklung stark bremst oder zurückwirft).


1x zitiertmelden

Technologische Singularität

15.01.2018 um 20:49
@uatu
Zitat von uatuuatu schrieb:Nein, das ist bei Dir offensichtlich völlig falsch angekommen.
Denk auch :)
Zitat von uatuuatu schrieb:Die Gefahren (und die Chancen) der technologischen Singularität betrachte ich als extrem, andererseits halte ich sie aber auch für unausweichlich (sofern keine grössere globale Katastrophe die Entwicklung stark bremst oder zurückwirft).
Ja so sehe ich das auch.


melden

Technologische Singularität

15.01.2018 um 21:38
Ich hätte gerne eine zur rekursiven Selbstverbesserung fähige KI in einem Glaskasten mit vier Buttons:

  • Forward: Die KI verbessert sich rekursiv selbst.
  • Play: Die KI läuft auf ihrem aktuellen Stand, und ich kann mit ihr interagieren. Weiterentwickeln kann sie sich in diesem Modus allerdings nicht.
  • Rewind: Sämtliche Abläufe, die vorher unter "Forward" stattfanden, laufen mit der gleichen Geschwindigkeit rückwärts ab.
  • Stop: Die KI wird gestoppt.


Ausserdem hätte ich gerne eine schriftliche Zusicherung der "göttlichen Intelligenz" (oder so), dass die KI ganz, ganz bestimmt nicht aus dem Glaskasten ausbrechen kann, und sich unter allen Umständen den Buttons entsprechend verhält.

Das wär's. ;)


2x zitiertmelden

Technologische Singularität

15.01.2018 um 22:15
Zitat von uatuuatu schrieb:Ausserdem hätte ich gerne eine schriftliche Zusicherung der "göttlichen Intelligenz" (oder so), dass die KI ganz, ganz bestimmt nicht aus dem Glaskasten ausbrechen kann, und sich unter allen Umständen den Buttons entsprechend verhält.

Das wär's. ;)
Wie willst du dies machen, wenn die heutige Entwicklung bei den CPUs etc. so weiter läuft, dann kann man sich ausrechnen wo wir in 20 Jahren stehen. Wer will dann den Menschen Einhalt gebieten wenn jeder sich daheim einen Rechner hinstellen kann für eine kleine AI.


1x zitiertmelden

Technologische Singularität

15.01.2018 um 22:40
@taren: Das wird spannend. ;) Mehr kann man, glaube ich, derzeit nicht dazu sagen.


melden

Technologische Singularität

15.01.2018 um 22:52
@taren
Zitat von tarentaren schrieb:Wie willst du dies machen, wenn die heutige Entwicklung bei den CPUs etc. so weiter läuft,
Mal davon abgesehen das es vielleicht in nicht allzu ferner Zukunft gelingt stabil laufende Quantencomputer zu bauen.


melden

Technologische Singularität

16.01.2018 um 05:02
Zitat von uatuuatu schrieb:Ausserdem hätte ich gerne eine schriftliche Zusicherung der "göttlichen Intelligenz" (oder so), dass die KI ganz, ganz bestimmt nicht aus dem Glaskasten ausbrechen kann, und sich unter allen Umständen den Buttons entsprechend verhält.
Hehe, gut.. Du meinst so eine Zusicherung, wie das heilige Versprechen nach dem Ableben belohnt zu werden? (oder so)
Würde mich nicht zu sehr drauf verlassen. :)

Darüberhinaus wäre das vllt zu bewerkstelligen, dass man ihr versucht auch eine art Empathie einzuprogrammieren. Eine Simulation von Spiegelneuronen, die die Maschine "mitfühlend" macht, und sie uns gegenüber freundlich stimmt, nicht neutral. Wäre sowas denkbar? Weiß nicht..


1x zitiertmelden

Technologische Singularität

16.01.2018 um 05:28
@Philipp:
Zitat von PhilippPhilipp schrieb:Darüberhinaus wäre das vllt zu bewerkstelligen, dass man ihr versucht auch eine art Empathie einzuprogrammieren.
Eines der fundamentalen Probleme bei der technologischen Singularität ist, dass man sich nicht darauf verlassen kann, dass irgendetwas an der KI wirklich unveränderlich bleibt. So sehr man sich auch bemüht, der KI irgendwelche "Grundregeln" o.ä. mitzugeben, besteht immer die Gefahr, dass die KI solche Mechanismen im Laufe ihrer Entwicklung (die in den späteren Phasen rasend schnell ablaufen kann) aushebelt, möglicherweise auf einem Weg, den Menschen überhaupt nicht mehr nachvollziehen können.


1x zitiert1x verlinktmelden

Technologische Singularität

16.01.2018 um 05:37
@uatu
Ja, das ist sicher das Hauptproblem, und man kann unmöglich voraussehen, was die Maschine irgendwann als klüger erachtet, wobei sie sich entsprechend selbst modifiziert. Zumindest auf der Software-Ebene. Solche Sicherheitsmaßnahmen wären demzufolge nur hardwaremäßig zu realisieren, und selbst da kann man sich auf Dauer nicht sicher sein, ob es die KI nicht auch irgendwann schafft, diese entsprechend der eigenen Parameter zu verändern.

Hab mir ehrlich gesagt noch nie richtig Gedanken dazu gemacht, aber du hast recht. Es bleibt wirklich ein sehr spannendes Thema.


melden

Technologische Singularität

17.01.2018 um 09:51
@uatu
Zitat von uatuuatu schrieb:Eines der fundamentalen Probleme bei der technologischen Singularität ist, dass man sich nicht darauf verlassen kann, dass irgendetwas an der KI wirklich unveränderlich bleibt. So sehr man sich auch bemüht, der KI irgendwelche "Grundregeln" o.ä. mitzugeben, besteht immer die Gefahr, dass die KI solche Mechanismen im Laufe ihrer Entwicklung (die in den späteren Phasen rasend schnell ablaufen kann) aushebelt, möglicherweise auf einem Weg, den Menschen überhaupt nicht mehr nachvollziehen können.
Und genau das ist die größte Gefahr die wir hier haben. Wir können der KI mitgeben was wir wollen, irgendwann an einem Punkt kann das System genau diese Dinge aushebeln, da es sich denkt, dieser Punkt passt überhaupt nicht mehr.

Ein Szenario wie in "I Robot" wäre meiner Meinung nach mehr als nur möglich und vielleicht sogar die logische Schlussfolgerung des Systems. Dort waren die Roboter ja auch nur als Hilfe für die Menschen gedacht, die quasi die Arbeit verrichten auf die wir Menschen nicht wirklich große Lust haben. Aber mit der Zeit fand das System heraus, dass der Mensch einfach das Problem überhaupt ist.

Einzige was meiner Meinung nach nicht so einfach sein wird wie im Film ist, dieses System eben abzustellen. Da wird es dann nicht nur eine zentrale Stelle geben die einfach nur zerstört werden muss. Ist die KI mal auf einem so hohen Level, haben wir Menschen ein Problem, denn das Level der KI steigt ja exponentielle. Wir kommen dann nie mehr hinterher.

Ich für meinen Teil habe hier große Angst, dass wir uns hier selbst ein Grab schaufeln und keine Möglichkeit haben das wieder Rückgängig zu machen....


1x zitiertmelden

Technologische Singularität

17.01.2018 um 11:29
@Stizzle
Warum sollte eine KI den Menschen als Problem wahrnehmen und dann eine feindseligkeit gegenüber diesen entwickeln? Eine künstliche Intelligenz denkt nicht wie ein Mensch. Sie hat nur die Triebe, die ihr vom Ersteller mitgegeben werden, und dies wäre zwangsläufig die optimale Erfüllung der vorgesehenen Funktion.
Zitat von StizzleStizzle schrieb:Ist die KI mal auf einem so hohen Level, haben wir Menschen ein Problem, denn das Level der KI steigt ja exponentielle. Wir kommen dann nie mehr hinterher.
Jede Exponentielle Entwicklung, wenn in der Realität auftretend, trifft früher oder später zwangsläufig auf Grenzen, die diese Entwicklung stoppen. Aus demselben Grunde halte ich auch das Konzept der technologischen Singularität (im Sinne von: technologischer Fortschritt so schnell das normaler Mensch nicht mehr folgen kann) für fragwürdig. Früher oder später greifen die Begrenzungen der Realität und man kämpft mit abnehmenden Grenzerträgen.


3x zitiertmelden

Technologische Singularität

17.01.2018 um 13:54
@Taln.Reich
Zitat von Taln.ReichTaln.Reich schrieb:Warum sollte eine KI den Menschen als Problem wahrnehmen und dann eine feindseligkeit gegenüber diesen entwickeln? Eine künstliche Intelligenz denkt nicht wie ein Mensch. Sie hat nur die Triebe, die ihr vom Ersteller mitgegeben werden, und dies wäre zwangsläufig die optimale Erfüllung der vorgesehenen Funktion.
Ja am Anfang hat sie nur die Triebe die vom Ersteller mitgegeben wurden, aber dadurch das sich die KI selbst verbessern kann, könnten genau diese verworfen werden und durch etwas ersetzt werden was die KI als besser erachtet.

Was macht die KI wenn diese "optimale Erfüllung" eingetreten ist?
Die KI wird sich dann schon neue Ziele oder selbst neue "optimale Erfüllungen" suchen. Ob man das verhindern kann, wer weiß.


1x zitiertmelden

Technologische Singularität

17.01.2018 um 14:27
Zitat von StizzleStizzle schrieb:Was macht die KI wenn diese "optimale Erfüllung" eingetreten ist?
Die KI wird sich dann schon neue Ziele oder selbst neue "optimale Erfüllungen" suchen. Ob man das verhindern kann, wer weiß.
Warum sollte sich eine KI veranlasst fühlen, sich neue Ziele zu setzen? Einer KI wird nicht langweilig. Und "Optimale Erfüllung" ist sowieso eine Endlosaufgabe. Ein paar Tausendstelprozentpunkte Verbesserungsmöglichkeit (in den gegebenen Rahmenbedingungen) werden sich mit sicherheit länger finden laßen, als der Mensch die KI laufen laßen wird.


2x zitiertmelden

Technologische Singularität

17.01.2018 um 14:45
Zitat von Taln.ReichTaln.Reich schrieb:Warum sollte sich eine KI veranlasst fühlen, sich neue Ziele zu setzen?
Aus dem selben Grund, warum der Mensch nach Erkenntnis strebt. Selbstreflexion, Forschungsdrang, was auch immer.. wenn man eine lernende KI programmiert, ist ja schon der Grundparameter der, dass sie lernt. Lernen bedeutet ja in letzter Konsequenz "Erwerb und Optimierung von Fähigkeiten"


1x zitiertmelden

Technologische Singularität

17.01.2018 um 14:52
Zitat von PhilippPhilipp schrieb:Aus dem selben Grund, warum der Mensch nach Erkenntnis strebt. Selbstreflexion, Forschungsdrang, was auch immer.. wenn man eine lernende KI programmiert, ist ja schon der Grundparameter der, dass sie lernt. Lernen bedeutet ja in letzter Konsequenz "Erwerb und Optimierung von Fähigkeiten"
Und genau das eben nicht. Selbstreflexion/Forschungsdrang/Neugier sind Triebe, die dem Menschen infolge dessen Evolutionsgeschichte von Geburt an mitgegeben sind. Eine KI hat diese Triebe jedoch nicht.

Ich meine, wir haben ja schon lernende KI (vergl. Wikipedia: Künstliches neuronales Netz ) und die "lernt" auch nur in dem abgesteckten Bereich, und entwickeltnicht plötzlich den Trieb, was neues lernen zu wollen.


1x zitiertmelden

Technologische Singularität

17.01.2018 um 14:55
@Taln.Reich
Die entwickeln das nicht einfach, das wird so einprogrammiert, sonst lernt sie eben nichts. Das will man aber.


1x zitiertmelden

Technologische Singularität

17.01.2018 um 15:02
Zitat von PhilippPhilipp schrieb:Die entwickeln das nicht einfach, das wird so einprogrammiert, sonst lernt sie eben nichts. Das will man aber.
Und dafür muss man ihr das Verlangen einprogrammieren dieses lernen auch auf Fachfremde Gebiete auszuweiten? Ich meine, die von mir verlinkten Künstlichen Neuronalen Netzwerke lernen auch, ohne das man dafür Neugier einprogrammieren muss.


2x zitiertmelden

Technologische Singularität

17.01.2018 um 16:34
@Taln.Reich:
Zitat von Taln.ReichTaln.Reich schrieb:Warum sollte eine KI den Menschen als Problem wahrnehmen und dann eine feindseligkeit gegenüber diesen entwickeln?
Die Entwicklung einer direkten "Feindseligkeit" ist vermutlich -- wenn auch nicht ausgeschlossen -- ein geringeres Problem. Zwei andere Szenarien sind wahrscheinlicher: Zum einen -- so ist es m.E. treffend im Roman "Dangerous Brains" beschrieben -- könnte die Entwicklung einer KI so weit voranschreiten, dass die Auslöschung der Menschheit aus ihrer Sicht nichts anderes wäre, als wenn ein Mensch Morgens auf dem Weg von der Haustür zum Auto unabsichtlich eine Ameise zertritt. Keine böse Absicht, und vielleicht sogar anschliessend das Äquivalent zu einem schulterzuckenden Bedauern. Zum anderen könnte eine KI bei der Verfolgung einer konkreten Aufgabe die Menschheit als "Nebeneffekt" direkt oder indirekt auslöschen. Beispiel: Eine KI bekommt die "harmlose" Aufgabe, eine bestimmte Fläche (z.B. einen Parkplatz) zu pflastern. Aus irgendeinem Grund ist die vorgegebene Umrandung der Fläche jedoch nicht ganz geschlossen. Die KI könnte nun rein logisch schliessen, dass ihre Aufgabe ist, die gesamte Oberfläche des Planeten zu pflastern, und sie könnte dieses Ziel u.U. ohne Rücksicht auf irgendetwas anderes verfolgen. Man wird zwar versuchen, solche Entwicklungen durch bestimmte einprogrammierte "Grundregeln" zu verhindern, aber es ist keineswegs sicher, dass diese unter allen Umständen greifen.
Zitat von Taln.ReichTaln.Reich schrieb:Eine künstliche Intelligenz denkt nicht wie ein Mensch. Sie hat nur die Triebe, ...
Zitat von Taln.ReichTaln.Reich schrieb:Warum sollte sich eine KI veranlasst fühlen, ...
Zitat von Taln.ReichTaln.Reich schrieb:... dafür muss man ihr das Verlangen einprogrammieren ...
"Triebe", "fühlen" und "Verlangen" sind m.E. sehr unglücklich gewählte Begriffe für eine KI-Diskussion. Neutralere Begriffe wie "Ziele" und "Regeln" sind da passender.
Zitat von Taln.ReichTaln.Reich schrieb:Jede Exponentielle Entwicklung, wenn in der Realität auftretend, trifft früher oder später zwangsläufig auf Grenzen, die diese Entwicklung stoppen.
Ich habe die Hardware-Entwicklung im IT-Bereich über lange Zeit miterlebt, und war z.T. auch selbst beteiligt. Ich gehöre noch zu denen, die einen Computer aus einzelnen Transistoren bauen können. Auf Basis dieser Erfahrung sehe ich auf sehr lange Sicht keine relevante Grenze für die Weiterentwicklung der Informationsverarbeitungskapazität von technischen Systemen. Es gibt tausende bisher wenig oder gar nicht genutzter Möglichkeiten, die Informationsverarbeitungskapazität zu erhöhen, z.B. die Verwendung von Germanium statt Silizium, oder 3D-Chips. Es gibt m.E. keine hardwareseitigen physikalischen Grenzen, die der technologischen Singularität entgegenstehen.
Zitat von Taln.ReichTaln.Reich schrieb:Selbstreflexion/Forschungsdrang/Neugier sind Triebe, die dem Menschen infolge dessen Evolutionsgeschichte von Geburt an mitgegeben sind. Eine KI hat diese Triebe jedoch nicht.

Ich meine, wir haben ja schon lernende KI (vergl. Wikipedia: Künstliches_neuronales_Netz) und die "lernt" auch nur in dem abgesteckten Bereich, und entwickeltnicht plötzlich den Trieb, was neues lernen zu wollen.
Das ist zu kurz gedacht. @Philipp hat es schon angesprochen: Bei der technologischen Singularität geht es um eine KI, der man das konkrete Ziel gesetzt hat, sich selbst rekursiv zu verbessern. Um dieses Ziel optimal verfolgen zu können, wird diese KI auf so ziemlich allen Gebieten "forschen", und sich selbst anhand der Ergebnisse verändern. Das kann (und wird sehr wahrscheinlich) einschliessen, die gesamte Hardware mehrfach auf einer völlig anderen Basis neu aufzubauen (z.B. der Wechsel von 2D-Silizium auf 3D-Germanium-Chips). Irgendwann werden Menschen die Entwicklung nicht mehr nachvollziehen können. Niemand kann sagen, ob eine KI bei entsprechend weit fortgeschrittener Entwicklung nicht beginnt, sich selbst irgendwelche neuen Ziele zu setzen.


1x zitiertmelden