Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

20.01.2018 um 15:40
@mojorisin:
Zitat von mojorisinmojorisin schrieb: Der Hauptunterschied zwischen Computer und Gehinr liegt aber in der dynamischen Vernetzung des Gehirns während der Computer seine Hardware nicht mehr verändern kann.
Das gilt auch nur noch eingeschränkt. Es gibt Chips, die man beliebig oft fast vollständig rekonfigurieren kann. D.h. man kann die Logik-Gatter nach Bedarf z.B. in Integer-Recheneinheiten, Gleitkomma-Recheneinheiten, Bildverarbeitungs-Einheiten oder einfachen Speicher umwandeln. Das könnte in Zukunft u.U. erheblich an Bedeutung gewinnen.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 15:42
Zitat von PhilippPhilipp schrieb:Ist klar, deshalb hab ich auch immer von erkennen und nachvollziehen gesprochen. Um Emotionen nachvollziehen zu können, ist es nötig, dass man sie nach-fühlt, meine ich.
Ja, aber dieses nachfühlen ist keine rein intellektuelle Aktion mehr.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 15:55
Zitat von nocheinPoetnocheinPoet schrieb:Natürlich kann man sich nicht vorstellen, was man sich nicht vorstellen kann, man kann dann nur mit einem Vergleich versuchen sich dem anzunähern.

Wir werden wie dreijährige Kinder gegenüber einer echten starken KI sein. Unsere geistigen Fähigkeiten werden lächerlich sein, sie wird uns wirklich unglaublich voraus sein, Dinge sehen, die wir nicht nur nicht sehen, sondern nie sehen und verstehen können werden.
wenn das wörtchen wenn nicht wer, ja wenn ein Kummulieren von Rechenleistung und Software zu einer Harten KI führen würde..

Ob sie uns wirklich so sehr Abhängt? Ob sie Emotionen hat? Wird schwer ohne Drüsen.

Ja es liegt noch unheimlich Potential in der Computertechnik aber ob wir dann mal eben so eine Pseudogottheit erschaffen können die plötzlich so die grenzen die uns momentan am machbaren hindert sprengt sei dahingestellt.
Zitat von nocheinPoetnocheinPoet schrieb:So eine KI kann auch spekulieren, Kapital an den Märkten machen und verteilen.

Da gibt es so viele Wege.
Wenn so eine KI an den Märkten mitmischt wird es keine Märkte mehr geben, gemäß eurer Aussage das sie so tausendfach alles besser kann und quasie die Zukunft vorausberechnen kann..


1x zitiertmelden

Technologische Singularität

20.01.2018 um 16:21
@Sonni1967:
Zitat von Sonni1967Sonni1967 schrieb:Dann hätte man eine KI die liebt, Mitgefühl hat, traurig oder fröhlich sein kann aber auch Neid, Hass usw. empfinden könnte (grusselige Vorstellung).
Mal die Frage ausgeklammert, ob eine KI etwas empfindet (das setzt Bewusstsein voraus, und niemand weiss bisher, was Bewusstsein eigentlich ist -- deshalb ist auch nicht entscheidbar, ob eine KI irgendwann etwas empfinden können wird oder nicht): Entsprechendes Verhalten kann sich auch bei heutigen KI-Experimenten bereits ergeben. Microsoft ist in diesem Zusammenhang 2016 ziemlich auf die Nase gefallen:
Mit Tay hat Microsoft eine künstliche Intelligenz vorgestellt, die sich selbstlernend auf Twitter, Groupme und Kik mit realen Personen unterhalten kann. Die KI soll vom Verhalten her an in den USA wohnende Menschen zwischen 18 und 24 Jahren angepasst sein.

Auf Twitter lässt sich Tay mit @TayandYou direkt ansprechen, die Chat-KI antwortet anschließend. Aus den Gesprächen soll Tay lernen, Microsoft erhofft sich von dem Experiment Aufschluss über das Verstehen von Unterhaltungen. Als Grundlage für das Wissen von Tay dient "relevant public data", wie Microsoft es selbst nennt. Zudem sollen Improvisations-Komiker bei der Programmierung geholfen haben.

Nach knapp einem Tag auf Twitter ist das Projekt allerdings etwas aus dem Ruder gelaufen: Recht schnell hat sich Tay von verschiedenen Inhalten beeinflussen lassen, was mitunter zu stark rassistischen und frauenfeindlichen Tweets der KI geführt hat.

(golem.de am 24.03.2016)
@Taln.Reich: Hier hast Du ein typisches Beispiel dafür, wie eine -- im Vergleich zu dem, was kommen wird, noch extrem primitive -- KI "das Spielfeld verlässt". Streng logisch betrachtet hat sie natürlich im Rahmen ihrer Programmierung gehandelt, aber das schloss eben Szenarien ein, die ihre Entwickler nicht bedacht hatten. Genau das ist das Problem, und es wird unmöglich sein, so etwas auszuschliessen.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 16:28
Zitat von uatuuatu schrieb:Hier hast Du ein typisches Beispiel dafür, wie eine -- im Vergleich zu dem, was kommen wird, noch extrem primitive -- KI "das Spielfeld verlässt". Streng logisch betrachtet hat sie natürlich im Rahmen ihrer Programmierung gehandelt, aber das schloss eben Szenarien ein, die ihre Entwickler nicht bedacht hatten. Genau das ist das Problem, und es wird unmöglich sein, so etwas auszuschliessen.
Ich würde nicht sagen, dass Tay das "Spielfeld verlassen" habe. Das Spielfeld der KI war, auf Twitter aktiv zu sein und sich dabei dem Verhalten der dort aktiven Menschen anzupassen. Nur haben sich diese als Vorbild angedachten Menschen entschieden, sich vorsätzlich auf die schlimmstmögliche Art und Weise zu verhalten, was dann, entsprechend der Vorgabe, dazu führte dass die KI dieses Verhalten immitierte. Zu keinen Zeitpunkt hat Tay sich selbst neue Ziele gesteckt oder ihre Regeln geändert.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 16:35
@Taln.Reich
Zitat von Taln.ReichTaln.Reich schrieb:Der Gottgleichen Super-KI der wir die Weltherrschaft übergeben.
Ich wollte schon schreiben wir können ja das INternet oder gar das Darknet heranziehen, dann können wir die schlimmsten Seiten der Menschen herauskitzeln :)

Aber das Tay Bot Beispiel wurde ja jetzt schon gepostet.

Ubrigens wer sich mal selbst von Tay Twitter Tweets überzeugen will:

https://www.google.de/search?q=microsoft+tay+twitter&source=lnms&tbm=isch&sa=X&ved=0ahUKEwjU_I7u7ebYAhUJqKQKHTM1DucQ_AUICigB&biw=1472&bih=712
Zitat von uatuuatu schrieb:Das gilt auch nur noch eingeschränkt. Es gibt Chips, die man beliebig oft fast vollständig rekonfigurieren kann.
Ich weiß oder zumindest kenne ich herkömmliche FPGA's (Für die die es interessiert: Wikipedia: Field Programmable Gate Array). Aber das ist letzendlich auch nur Logikverknüpfungen emuliert, also softwareseitig.

Was ich aber meine ist die reale Hardware von Prozessoren. Einmal vom Prozesstisch runter und eingepackt sind die Verbindungen fix. Im Gehirn dagegen ändern sich tatsächlich laufend die Hardwareverbindungen.


2x zitiertmelden

Technologische Singularität

20.01.2018 um 16:38
Zitat von Taln.ReichTaln.Reich schrieb:Ja, aber dieses nachfühlen ist keine rein intellektuelle Aktion mehr.
Ja. Die Parallele ist die, dass ein bestimmtes Muster erfasst und eingeordnet werden kann. Beide male wird was verstanden. In dem einen Fall ein bestimmter Gedanke, in dem anderen ein bestimmtes Gefühl halt.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 16:48
Zitat von PhilippPhilipp schrieb:Ja. Die Parallele ist die, dass ein bestimmtes Muster erfasst und eingeordnet werden kann. Beide male wird was verstanden. In dem einen Fall ein bestimmter Gedanke, in dem anderen ein bestimmtes Gefühl halt.
Aber nur weil ich ein Gefühl nachvollziehen kann, heißt das noch nicht, dass ich es auch nachfühle. Sowohl eine KI als auch ich können rational nachvollziehen, das jemand mit einer blutigen Verletzung der schreit wie weh es ihm tut Schmerzen empfindet, da dieses Verhalten dem Muster entspricht, dass sich bei Schmerzen ergibt. Ich werde darüberhinaus ein stechen im Geiste fühlen, dass mich dazu animiert diesem Verletzten zu helfen, da mir evolutionär einprogrammiert ist, meinen Artgenoßen zu helfen - dies ergibt sich jedoch nicht rational aus logischer Mustererkennung. Warum also sollte die KI ebenfalls ein "stechen" und das damit verbundene Hilfsbedürfnis verspüren? Wenn sie rein logisch, rational ist tut sie es nicht.


2x zitiertmelden

Technologische Singularität

20.01.2018 um 16:50
Zitat von mojorisinmojorisin schrieb:Was ich aber meine ist die reale Hardware von Prozessoren. Einmal vom Prozesstisch runter und eingepackt sind die Verbindungen fix. Im Gehirn dagegen ändern sich tatsächlich laufend die Hardwareverbindungen.
Ich denke, dass man auch sowas simulieren kann. Jeder Regelkreis lässt sich doch im Grunde beliebig programmieren, und das was im Hirn an Hardware umgebaut wird, könnte mit entsprechenden Parametern innerhalb einer Software realisiert werden, vermute ich.

Es geht doch immer um die Erfassung, Speicherung, Einordnung und Kombination von Informationen (Informationsmustern). Das ist doch das, was man gemeinhin unter Intelligenz versteht.


melden

Technologische Singularität

20.01.2018 um 16:58
@mojorisin:
Zitat von mojorisinmojorisin schrieb:Ich weiß oder zumindest kenne ich herkömmliche FPGA's (Für die die es interessiert: Wikipedia: Field_Programmable_Gate_Array). Aber das ist letzendlich auch nur Logikverknüpfungen emuliert, also softwareseitig.

Was ich aber meine ist die reale Hardware von Prozessoren. Einmal vom Prozesstisch runter und eingepackt sind die Verbindungen fix. Im Gehirn dagegen ändern sich tatsächlich laufend die Hardwareverbindungen.
Ähm, was meinst Du mit "Logikverknüpfungen emuliert, also softwareseitig"? In einem FPGA (mal im weitesten Sinne gefasst) kann man Logikgatter ziemlich beliebig immer wieder neu konfigurieren. Das würde ich als "hardwareseitig" bezeichnen. Ein Prozessor besteht aus nichts anderem als Logikgattern. Man kann einen Prozessor ohne weiteres auf Basis eines FPGA realisieren. Das habe ich selbst schon gemacht. Z.B. kann man das gleiche FPGA heute als 68000 und morgen als 8086 konfigurieren. Lediglich die Geschwindigkeit und die Integrationsdichte sind bei einem FPGA geringer als bei einem hartverdrahteten Prozessor. Je nach Hersteller und Typ kann man aber ziemlich beeindruckende Leistungen erreichen.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 17:05
Zitat von Taln.ReichTaln.Reich schrieb:Aber nur weil ich ein Gefühl nachvollziehen kann, heißt das noch nicht, dass ich es auch nachfühle.
Das sehe ich anders. Um etwas richtig nachvollziehen zu können, muss man es vollständig erfassen. Das heißt, man muss zu einer bestimmten Situation ein bestimmtes Vergleichsmuster (Emotion) abgespeichert haben, das einem deutlich macht, wie sich die Person in der Situation gerade fühlt. Nur dann kann man es auch wirklich nachvollziehen, weil man es eben nachfühlt, was der gegenüber gerade fühlt. Spiegelneuronen sind wohl dafür verantwortlich, dass man bestimmte emotionale Muster in bestimmten Situationen erkennt und mitfühlt.
Sowohl eine KI als auch ich können rational nachvollziehen, das jemand mit einer blutigen Verletzung der schreit wie weh es ihm tut Schmerzen empfindet, da dieses Verhalten dem Muster entspricht, dass sich bei Schmerzen ergibt. Ich werde darüberhinaus ein stechen im Geiste fühlen, dass mich dazu animiert diesem Verletzten zu helfen, da mir evolutionär einprogrammiert ist, meinen Artgenoßen zu helfen - dies ergibt sich jedoch nicht rational aus logischer Mustererkennung. Warum also sollte die KI ebenfalls ein "stechen" und das damit verbundene Hilfsbedürfnis verspüren? Wenn sie rein logisch, rational ist tut sie es nicht.
Das kann die Maschine natürlich nicht. Ich weiß auch ehrlich gesagt nicht, wie man sowas simulieren könnte, ohne einen Körper. Könnte mir aber vorstellen, dass irgendwann Möglichkeiten kommen werden, das zu realisieren.

War jetzt aber auch nicht der Punkt. Es ging doch gerade darum, ob man beides (sowohl das adäquate erfassen von Gedanken als auch das von Emotionen) als Intelligenz verstehen könnte.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 17:06
@Taln.Reich
Zitat von Taln.ReichTaln.Reich schrieb:Aber nur weil ich ein Gefühl nachvollziehen kann, heißt das noch nicht, dass ich es auch nachfühle. Sowohl eine KI als auch ich können rational nachvollziehen, das jemand mit einer blutigen Verletzung der schreit wie weh es ihm tut Schmerzen empfindet, da dieses Verhalten dem Muster entspricht, dass sich bei Schmerzen ergibt. Ich werde darüberhinaus ein stechen im Geiste fühlen, dass mich dazu animiert diesem Verletzten zu helfen, da mir evolutionär einprogrammiert ist, meinen Artgenoßen zu helfen - dies ergibt sich jedoch nicht rational aus logischer Mustererkennung. Warum also sollte die KI ebenfalls ein "stechen" und das damit verbundene Hilfsbedürfnis verspüren? Wenn sie rein logisch, rational ist tut sie es nicht.
Du glaubst durch Deine Biologie etwas exklusives zu haben, auch @Fedaykin glaubt, ohne Drüsen keine Emotionen.

Das ist Käse, der Mensch besteht auch nur aus ein Haufen Atomen, jede Drüse besteht aus Atomen, auf der Ebene der Atome gibt es keinen Geist, oder etwas exklusives, Atome und Schulz.

Es gibt keinen physikalischen Grund, warum eine KI nicht empfindungsfähig sein können sollte.

Das ist sogar ein echtes Problem, man stelle sich mal ein Mensch vor, ohne Arme, Beine, blind und voller Schmerzen. Ständig ein ganz lautes Pfeifen im Ohr. Normal sterben solche Menschen dann doch wo mal von alleine, ...

Wir tragen da auch Verantwortung, zu Beginn besteht echt die Gefahr, dass wir ein leidendes künstliches Wesen erschaffen könnten.

Besser wäre wohl eine KI im Dauer-Orgasmus :D


1x zitiertmelden

Technologische Singularität

20.01.2018 um 17:09
Zitat von PhilippPhilipp schrieb:Das sehe ich anders. Um etwas richtig nachvollziehen zu können, muss man es vollständig erfassen. Das heißt, man muss zu einer bestimmten Situation ein bestimmtes Vergleichsmuster (Emotion) abgespeichert haben, das einem deutlich macht, wie sich die Person in der Situation gerade fühlt. Nur dann kann man es auch wirklich nachvollziehen, weil man es eben nachfühlt, was der gegenüber gerade fühlt. Spiegelneuronen sind wohl dafür verantwortlich, dass man bestimmte emotionale Muster in bestimmten Situationen erkennt und mitfühlt.
Klar, um eine Emotion mitfühlen zu können, muss man sie korrekt erkennen. Aber nur das korrekte erkennen der Emotion alleine bedeutet noch nicht, dass diese auch mitgefühlt wird.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 17:09
@Philipp

Schmerzen sind im Hirn nicht wirklich als solche erkennbar, soll heißen, sie unterscheiden sich nicht von anderen Reizen. Da ist nicht etwas mehr Strom oder so in den Nerven.

Wenn wir ein Hirn nur so von außen betrachten, können wir nicht an den Signalen ohne andere Informationen erkennen, ob da ein Bewusstsein hinter steht, dass die wahrnimmt und als Schmerz und nicht als etwas angenehmes erfährt.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 17:11
Zitat von Taln.ReichTaln.Reich schrieb:Klar, um eine Emotion mitfühlen zu können, muss man sie korrekt erkennen. Aber nur das korrekte erkennen der Emotion alleine bedeutet noch nicht, dass diese auch mitgefühlt wird.
Das hab ich auch nicht gesagt. Man muss sie mal gefühlt haben, um sie wieder richtig einordnen zu können.


melden

Technologische Singularität

20.01.2018 um 17:12
Zitat von nocheinPoetnocheinPoet schrieb:Du glaubst durch Deine Biologie etwas exklusives zu haben, auch @Fedaykin glaubt, ohne Drüsen keine Emotionen.

Das ist Käse, der Mensch besteht auch nur aus ein Haufen Atomen, jede Drüse besteht aus Atomen, auf der Ebene der Atome gibt es keinen Geist, oder etwas exklusives, Atome und Schulz.

Es gibt keinen physikalischen Grund, warum eine KI nicht empfindungsfähig sein können sollte.

Das ist sogar ein echtes Problem, man stelle sich mal ein Mensch vor, ohne Arme, Beine, blind und voller Schmerzen. Ständig ein ganz lautes Pfeifen im Ohr. Normal sterben solche Menschen dann doch wo mal von alleine, ...

Wir tragen da auch Verantwortung, zu Beginn besteht echt die Gefahr, dass wir ein leidendes künstliches Wesen erschaffen könnten.

Besser wäre wohl eine KI im Dauer-Orgasmus :D
Ich sage nicht, eine Simulation der Empfindungsfähigkeit zu basteln, ich sage nur, das sich Emotionen/Mitgefühl nicht logisch-rational ergeben.

Beitrag 8.300


melden

Technologische Singularität

20.01.2018 um 17:12
Zitat von FedaykinFedaykin schrieb:Ja es liegt noch unheimlich Potential in der Computertechnik aber ob wir dann mal eben so eine Pseudogottheit erschaffen können die plötzlich so die grenzen die uns momentan am machbaren hindert sprengt sei dahingestellt.
Die Frage ist eher glaubt man ob das Bewusstsein des Menschen natürlich ist oder ob es esoterisch angehaucht, göttlich oder was weiß ich nicht ist. Der Punkt ist, wenn das Bewusstsein des Menschen natürlich ist, dann resultiert daraus, es wird der Mensch in der Lage sein dieses Bewusstsein und das menschliche Gehirn irgendwann zu verstehen. Die Frage ist nur wann und ob der Mensch sich vorwärts entwickelt oder auch wieder Phasen einer Rückwärtsentwicklung durchläuft. Der Mensch ist Grundsätzlich in der Lage alles natürliche irgendwann zu verstehen und damit sind KI's die dem Menschen überlegen sind erstmal möglich, muss man jedenfalls sicher annehmen.


melden

Technologische Singularität

20.01.2018 um 17:14
Zitat von nocheinPoetnocheinPoet schrieb:Schmerzen sind im Hirn nicht wirklich als solche erkennbar, soll heißen, sie unterscheiden sich nicht von anderen Reizen. Da ist nicht etwas mehr Strom oder so in den Nerven.

Wenn wir ein Hirn nur so von außen betrachten, können wir nicht an den Signalen ohne andere Informationen erkennen, ob da ein Bewusstsein hinter steht, dass die wahrnimmt und als Schmerz und nicht als etwas angenehmes erfährt.
Ist richtig. Nur wüsste ich gerade nicht, wie man einen solchen unerwünschten Reiz simulieren könnte, der eine KI davon abhalten würde, zB. Menschen zu töten, wie es eben bei mitfühlenden Lebewesen der Fall ist. Halte es aber nicht für Ausgeschlossen einen Weg zu finden, das irgendwann zu realisieren. Wie du schon sagtest, ein Reiz ist und bleibt ein Reiz.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 17:18
@Taln.Reich:
Zitat von Taln.ReichTaln.Reich schrieb:Ich würde nicht sagen, dass Tay das "Spielfeld verlassen" habe. Das Spielfeld der KI war, auf Twitter aktiv zu sein und sich dabei dem Verhalten der dort aktiven Menschen anzupassen. Nur haben sich diese als Vorbild angedachten Menschen entschieden, sich vorsätzlich auf die schlimmstmögliche Art und Weise zu verhalten, was dann, entsprechend der Vorgabe, dazu führte dass die KI dieses Verhalten immitierte. Zu keinen Zeitpunkt hat Tay sich selbst neue Ziele gesteckt oder ihre Regeln geändert.
Jetzt versuchst Du, den Begriff "Spielfeld" passend zu Deiner Argumentation zurechtzubiegen. Das "Spielfeld" bei einem Schachprogramm ist der Rahmen, den das Programm nach den Vorstellungen der Entwickler einhalten soll. Haben die Entwickler irgendwas übersehen, wodurch ein Zug auf das Feld Z9 möglich ist, dann hat das Schachprogramm "das Spielfeld verlassen". Genau das ist Microsoft mit Tay passiert: Das Programm hat den Rahmen verlassen, den es nach den Vorstellungen seiner Entwickler einhalten sollte.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 17:22
Zitat von PhilippPhilipp schrieb:Ist richtig. Nur wüsste ich gerade nicht, wie man einen solchen unerwünschten Reiz simulieren könnte, der eine KI davon abhalten würde, zB. Menschen zu töten, wie es eben bei mitfühlenden Lebewesen der Fall ist. Halte es aber nicht für Ausgeschlossen einen Weg zu finden, das irgendwann zu realisieren. Wie du schon sagtest, ein Reiz ist und bleibt ein Reiz.
Ich schlage vor, wir vergessen das ganze mit der Harten KI, die sich selbst neue Ziele setzt und selbst ihre Grundregeln umschreiben kann, und belassen es bei der weichen Experten-KI, die sich gänzlich darauf Konzentriert unter den gegebenen Grundregeln das Ziel so gut wie möglich zu erfüllen. Dabei kann zwar auch was schief gehen, aber das ist dann ein Bedienfehler, entweder weil bei den Grundregeln oder der Zielauswahl der Betreiber nicht alles durchdacht hat.


melden