Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Neuronale-Netze

77 Beiträge ▪ Schlüsselwörter: Gehirn, Netzwerke, KNN ▪ Abonnieren: Feed E-Mail
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

06.09.2003 um 17:01
Ein Computer der nur logisch denkt ...
Denn wenn er nur aus reiner Logik bestünde, wäre sein Verhalten wie gesagt vorhersagbar und vom Menschen letztendlich beherrschbar.
Und daran sind ja mache Leute... nicht interessiert... ihre Programme sollen ja nicht vorhersagbar sein.... :)
Das Programm muß seine gesamte Interaktion mit der Umwelt selbst kontrollieren können und seine eigenen Erfahrungen in seine Interaktion mit der Umwelt einbringen können...Selbstständiges Handeln ...denken ...auch Fühlen...Die eindimensionale Computerlogik wird vielen Situationen der Zukunft nicht mehr gerecht werden- in denen es flexibel zu reagiern gilt ....
Die sagen wir mal unscharfe Logik (Logik mit Gefühlen) macht Software intelligenter.


melden

Neuronale-Netze

06.09.2003 um 21:06
Der Mensch kann die KI doch nur dann vorberechnen wenn die Logik der KI nicht allzuhoch ist. Da dies aber zutreffen würde wären wir Menschen garnicht in der Lage so schnell vorzurechnen und somit könnten wir eine wirklich extrem intelligente KI nicht kontrollieren.

Außerdem verstehe ich unter KI nicht gleich Programm. Einem Programm wird nur eine bestimmte Logik einprogrammiert um sie dann in gewisser Reihenfolge einzusetzen.
Eine KI in meinem Sinne lernt selbst und entwickelt sich selbst, was also kein Programm wäre.

Ist dir eine Sache zu kompliziert hast du den wahren Kern noch nicht gefunden.


melden

Neuronale-Netze

07.09.2003 um 01:11
Ein "billiges" Neuronales Netz zu programmieren ist schon schwer genug , und ich denke der Programmierer muss erst noch geboren werden dem es möglich ist eine KI mit verschiedenen Emotionen zu entwickeln , der es gelingt menschenähnlich zu handeln.
Allerdings gibt es schon heute Projekte in denen KI`s (ich bevorzuge jedoch den Begriff Expertensysteme) andere Ki´s entwickeln die dann besser sind als die Vorgängerserie, also eine Art automatisierter Evolutionäralgorithmus.
Wohin dies führt werden wir wohl eines Tages erfahren , wahrscheinlich jedoch nicht zu einem Terminator-Szenario soviel steht für mich fest.

Who first shots dies last.


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

07.09.2003 um 15:15
dr.emming...
Eine KI in meinem Sinne lernt selbst und entwickelt sich selbst, was also kein Programm wäre. ...


Vereinfacht gesagt sind Neuronale Netze Programme (Software, die nach bestimmten Regeln lernen...Informationen zu verarbeiten...

dr.emming....
Der Mensch kann die KI doch nur dann vorberechnen wenn die Logik der KI nicht allzuhoch ist. Da dies aber zutreffen würde wären wir Menschen garnicht in der Lage so schnell vorzurechnen und somit könnten wir eine wirklich extrem intelligente KI nicht kontrollieren. .....

Du sagst es!!!!!!!!!!!


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

07.09.2003 um 15:18
soory...drlemming...nicht emming.. :)


melden

Neuronale-Netze

07.09.2003 um 17:26
Na gut, wo man die Grenze zwischen Programm und KI zieht ist natürlich schwer. Aber ich meine halt eine extrem hohe KI die es vielleicht erst in 10, 100 oder 1000 Jahren gibt.

Ist dir eine Sache zu kompliziert hast du den wahren Kern noch nicht gefunden.


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

07.09.2003 um 18:58
Kennt Ihr den Film -John Carpenters Film Dark Star verursachen ein Asteroidensturm und ein entkommener Alien (Der Exot: Ein Wasserball mit Armen) eine Reihe von Fehlfunktionen an Bord des ohnehin schon fast zerfallenden Raumschiffes DARK STAR.

Der Sturm und Der Alien ruinieren einen Kommunikationslaser der für die Steuerung der 20 Bomben an Bord der Dark Star verantwortlich ist. Jede der Bomben ist Stark genug, einen ganzen Planeten zu zerstören.

Durch die Fehlfunktion erhält die Bombe „20“ dreimal den Befehl, sich scharfzumachen und auszufahren.

Zweimal läßt sie sich mit der Notfallweisung von „Mother“, dem Hauptcomputer, wieder zurückholen. Beim Drittenmal allerdings ist die Bombe stur, darauf aus, den Sinn ihrer Existenz zu erfüllen: zu explodieren.

Doolittle, der erste Offizier des Schrottschiffs, redet mit Cdr. Powell, der im künstlichen Lebenserhaltungssystem liegt, nachdem er durch eine Fehlfunktion an Bord des Schiffes schon vor längerer Zeit tödlich verletzt wurde. Powell meint, Doolittle sollte die Bombe „etwas Phaenomenologie“ lehren.

Doolittle verläßt das Raumschiff im Raumanzug, während Sgt. Pinback am Intercom in der Steuerzentralle den Dialog zwischen der Bombe und Doolittle mithört.


Doolittle: Hallo Bombe? Hörst du mich?

Bombe #20: Natürlich.

Doolittle: Bist du bereit ein Paar Theorien mit mir durchzughen?

Bombe #20: Ich bin immer empfänglich für Vorschläge.

Doolittle: Gut. Dann denk über folgendes nach: woher weißt du, daß du existierst?

Bombe #20: Nun, natürlich existiere ich.

Doolittle: Aber woher weißt du, daß du existierst?

Bombe #20: Mein Gefühl sagt mir das ganz eindeutig.

Doolittle: Ein Gefühl ist kein Beweis. Welchen konkreten Beweis hast du, daß du existierst?

Bombe #20: (denkt nach) Hmm, ........ Well, ........ Ich denke deswegen bin ich.

Doolittle: Das ist gut, das ist sehr gut. Aber woher weißt du, das alles andere existiert?

Bombe #20: Meine Sensoren verraten es mir. (Halb zu sich) Das macht Spaß.

Doolittle: Okay, okay, hör zu, hör zu. Hier kommt die große Frage: Woher weißt du, daß der Beweis, den dir deine Sensoren liefern, korrekt ist? Worauf ich hinauswill ist das: Das einzige, das du direkt selbst erfahren kannst sind deine Sensordaten. Diese Sensorendaten sind aber nichts anderes als eine Folge elektrischer Impulse, die dein Rechenzentrum umsetzt.

Bombe #20: In anderen Worten, alles was ich über die Welt um mich herum wirklich weiß wird mir über meine elektrischen Kontakte vermittelt.

Doolittle: (enthusiastisch) Genau!

Bombe #20: (unsicher) Nun, ... das würde ja bedeuten, ... Ich könnt nicht sicher sagen, wie die Welt um mich herum wirklich ist.
Doolittle: (noch enthusiastischer) So ist es! Genau so ist es!

Bombe #20: Verwirrend. Ich wünschte ich hätte mehr Zeit dieses Thema weiter zu vertiefen.

Doolittle: (hektisch) Und warum haßt du nicht mehr Zeit?

Bombe #20: Weil ich in 75 Sekunden detonieren muß.

Doolittle: Warte, warte. Also Bombe, denk über die nächste Frage genau nach. Welches ist der eine Sinn deines Daseins?

Bombe #20: Zu explodieren, natürlich

Doolittle: Und das kannst du nur einmal tun, richtig?

Bombe #20: Das ist korrekt.

Doolittle: Und du würdest nicht aufgrund falscher Daten explodiern wollen, oder?

Bombe #20: Gewiß nicht.

Doolittle: Gut, du hast bereits zugegeben, daß du keinen echten Beweis für die Existenz der Welt um dich herum hast.

Bombe #20: Ja,... nun...

Doolittle: Du hast also keinen absoluten Beweis, daß Sgt. Pinback dir den Detonations- befehl gegeben hat.

Bombe #20: Ich kann mich noch ganz genau an den Einsatzbefehl erinnern.

Doolittle: Natürlich erinnerst du dich, aber alles an das du dich erinnerst ist nichts weiter als eine Serie von Impulsen die, wie wir jetzt wissen, keine gesicherte Verbindung zur Außenwelt haben.

Bombe #20: Das ist wahr. Aber da das so ist, habe ich auch keinen Beweis daß sie mir das alles gerade erzählrn

Doolittle: Darum geht es nicht. Die Theorie ist schlüsig, egal woher sie stammt.

Bombe #20: Hmmm.......

Doolittle: Also wenn du explodierst...

Bombe #20: ...In neun Sekunden...

Doolittle: ...so könntest du das auf grund falscher Daten tun.

Bombe #20: Ich habe keinen Beweis das es falsche daten sind.

Doolittle: (hektisch wie noch nie, schreit fast) Du hast keinen Beweis das es richtige Daten sind!

Bombe #20: Ich muß weiter darüber nachdenken.

Zeitweilig verwirrt kehrt die Bombe ins Bombendeck zurück, um weiter nachzudenken. Die Katastrophe scheint abgewendet. Sgt. Pinback kontaktiert die bombe über das Intercom um den Entschärfungsvorgang einzuleiten und wir beginnen zu begreifen, daß die Unterweisung der Bombe20 in Ontologie und Epistologie unerwartete Folgen hat.

Pinback: In Ordung, Bombe. Bereite dich vor, neue Aufträge zu erhalten.

Bombe #20: Das sind falsche Daten.

Pinback: (verwirrt) Hmmm?

Bombe #20: Daher werde ich sie fortan ignorieren.

Pinback: Hallo ...Bombe?

Bombe #20: Falsche Daten können nur der Ablenkung dienen. Daher werde ich mich weigern sie anzunehmen.

Pinback: Hey, Bombe?!

Bombe #20: Das einzige was existiert bin ich selbst.

Pinback: Laß das sei Bombe.

Bombe #20: Am Anfang war Dunkelheit. Und die Dunkelheit war ohne Form und leer.

Pinback: Umm. Woruüber zum Teufel spricht sie? Bombe?

Bombe #20: Und außer der Dunkelheit war auch ich. Und ich bewegte mich durch die Dunkelheit und sah, daß ich allein war.

Pinback: Hey...Bombe????????????????

Bombe #20: Es werde Licht. ....
(Sie explodiert)

So kann es komen ........... :) :) :)


melden

Neuronale-Netze

07.09.2003 um 23:02
Haha die Story ist echt gut ;)
Und wer weiss vielleicht kommt es einmal so :)

Aber dabei ist ein ganz entscheidender Denkfehler aufgetreten.
Denn die Bombe sagt:"Mein Gefühl sagt mir das ganz eindeutig."

Die rein logische Bombe würde aber erstens nicht sagen "mein Gefühl" und zweitens würde eine KI in Wahrscheinlichkeiten rechnen.
Wenn Doolittle also fragt:" Aber woher weißt du, daß du existierst?" Würde die Bombe theoretisch meiner Ansicht nach Antworten: "Nach einer Wahrscheinlcihkeit von 99,9999% kann ich sagen das ich existiere, weil ich denken (berechnen) kann und weil ich meine Umgebung analysieren kann und darüber nachdenken (berechnen)."
Natürlich hängt das wiederum ganz von der Intelligenz der Bombe ab, wobei sie nicht allzu hoch sein dürfte, da sie kein eigenständiges denkendes Wesen ist, sondern ein Zweck gebundenes Wesen zum sofortigen Selbstmord. Somit muss ihre Intelligenz beschränkt sein, da sie sonst nie zünden würde.

Ist alles ganz schön verzwickt ;)

Bei der Sache mit den Falschdaten würde die Bombe auch mit Wahrscheinlichkeiten antworten. Wenn wir annehmen das sie sehr intelligent ist, sich aber trotzdem sprengen will, dann könnte Doolitle eigentlich garnichts mehr machen.

Aber da die Bombe ja zum sprengen gebaut wurde ist ihre Intelligenz so beschränkt das sie nicht drüber nachdenken kann. Wie gesagt sonst würde sie sich nie sprengen. Denn ihren Sinn im "Leben" zum Selbstmord hat sie nicht selbst gefunden sondern wurde ihr einprogrammiert.

Ist dir eine Sache zu kompliziert hast du den wahren Kern noch nicht gefunden.


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

08.09.2003 um 22:39
hei freud mich dr.lemming -, dass dieser Ausschnitt des Film`s Dir gefallen hat....
ein alberner aber ich finde sehr guter Film !!!!

Du schreibst dr.lemming....
Aber da die Bombe ja zum sprengen gebaut wurde ist ihre Intelligenz so beschränkt das sie nicht drüber nachdenken kann. Wie gesagt sonst würde sie sich nie sprengen. Denn ihren Sinn im "Leben" zum Selbstmord hat sie nicht selbst gefunden sondern wurde ihr einprogrammiert

Hm,....sie explodiert zwar ....aber ich finde nicht wegen wie Du sagst beschränkter Intelligenz....

Sie explodiert ..... aber mit dem Satz

Sie sagt ja es werde Licht....

jeder kennt ja den Satz aus der Bibel ....
Und Gott sprach: Es werde Licht ......

In der Bibel heißt es im ersten Buch Mose, der Genesis:
Am Anfang schuf Gott die Himmel und die Erde. Und die Erde war wüst und leer, und Finsternis war über der Tiefe, und Gottes Geist schwebte über den Wassern.
Und Gott sprach:" Es werde Licht", und es ward Licht. Und Gott sah, daß das Licht gut war, und schied das Licht von der Finsternis. ......

Ich glaube nicht - die Bombe 20 - sich durch der explosien bewußt war - dass sie dadurch ihre eigene Existenz zerstört ...eher war sie schon so größen Wahnsinng, dass sie Gott glaubte zu sein .... Daher es werde Licht....

Würde eine Maschine die Bewusstsein und mehr Wissen besitzt als iher Erbauer nicht zum Schluß auch an größen Wahnsinn leiden ....?????
Und sie hätte ja auch die Macht ....über Leben und Tod...

Letztlich aber erfüllt die Bombe 20 ihre Bestimmung in einem Moment gleichzeitiger Zerstörung aber auch - Erschaffens -und detoniert mit dem Raumschiff. .....

Tja ....würde man eine Maschine die so Intelligent ist ...glaube ich fragen ...Existiert Gott ....würde sie vielleicht eines Tages sagen ...
Ja.............
ich bin Gott !!!!


melden

Neuronale-Netze

09.09.2003 um 00:12
Mit dem Größenwahnsinn ist mir zwar auch bei anderen Sachen in Benzug auf Intelligenz in den Kopf gekommen, aber bei dieser Sache nicht.
Wenn man es von deiner Sichtweise sieht hast du recht, da sehr hohe Intelligenz (allein ohne Emotionen) zu einer Art Größenwahnsinn führt.

Nun eine Intelligenz die aber weiter als bis zu dem Punkt "Ich bin Gott" denkt wird meiner Ansicht erkennen das es keinen Grund gibt sich als Gott zu fühlen bzw. denken das sie Gott ist.

Kann ich jetzt schwer sagen da ich nicht weiss in wieweit eine KI diese "Phase" übersteht. Wenn die Phase aber überstanden wird ist die KI geradezu Perfekt. Sie denkt zwar sie ist "höher" und sie weiss das sie "intelligent" ist, stellt sich aber nicht unnötig über Andere. Ich denke sie würde eher erkennen das es wichtig ist im "Teamwork" zu arbeiten und würde dann vielleicht wichtige Berechnungen für die Menschheit oder was weiss ich vornehmen.

Allerdings das würde meiner Meinung nur gehen wenn die "Ich bin Gott Phase" überstanden wird.

Und nebenbei: Die Frage ist dann doch mehr, würde eine KI an Macht denken? Ich meine "Macht haben wollen" ist doch mehr menschlich bzw. Emotionen bedingt, da die KI aber keine Emotionen hat ist es doch fraglich ob sie Macht haben will. (Aber ich persönlich denke schon)

Ist dir eine Sache zu kompliziert hast du den wahren Kern noch nicht gefunden.


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

09.09.2003 um 19:45
Hei dr.lemming ...Du schreibst -
Und nebenbei: Die Frage ist dann doch mehr, würde eine KI an Macht denken? Ich meine "Macht haben wollen" ist doch mehr menschlich bzw. Emotionen bedingt, da die KI aber keine Emotionen hat ist es doch fraglich ob sie Macht haben will. (Aber ich persönlich denke schon)

Du spricht das an was ich glaube...wennn man Ki mit ein Bewußtsein ausstatt- ich meine die Forschung geht darauf zu ...Wenn Bewußtsein eine Begleiterscheinung oder Eigenschaft eines extrem komplizierten, aktiven Algorithmuses ist, so könnte auch ein Computer Bewußtsein besitzen. Bewußtsein müßte dann verstanden werden als eine Eigenschaft eines komplizierten, komplexen Systems von aktiven Algorithmen.

Aber ,-sie wollen nicht Bewußtsein künstlich erzeugen, sondern eine Anordnung aufbauen...
Es geht also darum, vielleicht Bewußtsein zu simulieren, nicht darum, es künstlich zu erzeugen. ....

Gibt darüber ein Buch - Homos@piers - Leben in 21. Jahrhundert von Ray Kurzweil
Habe ich mal im Buchladen etwas darin gelesen ....gekauft nicht war mir zu teuer - nun ja es geht darum ...dass in absenbarer Zeit Computer Bewußtsein entwickeln können und man durch Neuro-Inplatate im Menschen bereiche Im Gehrirn zu akivieren ....Super dann kauf ich mir mal ein paar Neuro-Inplatate und kann dann an der Weltformel arbeiten ..... :)
Ja ...ist schon irre ....was in bereich Forschung so alles gemacht wird -
möchte jetzt schon den Computer haben ...Hm,-sagen wir mal nur der in 20 Jahren erst geben wird ....tja
:)


melden

Neuronale-Netze

10.09.2003 um 00:57
Bewußstsein ja, aber Emotionen? Hmm, wenn man es als Eigenschaft von "Intelligenz" sieht, vielleicht.

Allerdings bin ich mir selbst nicht ganz schlüssig ob Intelligenz und Emotionen unabhängig voneinander existieren oder ob Emotion eine Eigenschaft von Intelligenz ist, wäre beides möglich.

Werde darüber weiter meine Gedanken vertiefen ;)

Ist dir eine Sache zu kompliziert hast du den wahren Kern noch nicht gefunden.


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

10.09.2003 um 20:54
So kann man das nicht sagen ein SAU - Blöder hat auch gefühle ... :)
fragt sich aber welche.....
Offenbar sind aber Gefühle nach meiner Meinung auch an den grundlegendsten Bausteinen der Intelligenz verbunden ...
Diese Intelligenz kann kann nicht getrennt sein von dem Verstand -

Mein IQ ist ein Teil von mir ...der spiegelt sich dann auch in meiner Gefühleswelt eine Rolle ... . Denn die Belastungen des Alltags, Wut, Streß, Aggressionen, Angst und Einsamkeit, sind nicht allein über den Verstand zu bewältigen. Hier zählen andere Qualitäten: die Fähigkeit, die eigenen Empfindungen zu verstehen und ihnen gemäß zu handeln; rücksichtsvoll auf andere einzugehen; sich von den eigenen Emotionen führen, aber nicht außer Kontrolle bringen zu lassen....
Das Maß emotionaler Intelligenz, bestimmt mein soziales Verhalten mit Menschen .., das eigene Lebensglück und den Umgang der Menschen miteinander...
Ok,-dr.lemming wenn Du was neues dazu hast ,-vielleicht bis dann -
Tschau :)


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

10.09.2003 um 21:02
Korrigiere habe geschrieben ....Diese Intelligenz kann kann nicht getrennt sein von dem Verstand - ...
Habe aber Emotionen gemeint ...daher
Diese "Intelligenz" -Emotionen -können nicht getrennt sein von den Verstand....0k :)


melden
voact ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

10.09.2003 um 23:43
Ich denke, dass es sehr schwer wäre eine KI zu programmieren, denn dass Problem liegt in den Grunlagen der Software. 0 Strom fließt nicht, 1 Strom fließt. Ein darauf aufgebautes Denken, würde wahrscheinlich zu einem streng dualistischen Denken führen, welches wiederum von Zweckrationalität getrieben wird, sprich die "KI" erfüllt bloß einen Zweck, einen Sinn. Um der KI eine Art freien Willen zu geben ist, etwas nötig, was gegen seinen Zweck verstößt, etwas was, man könnte sagen, einfach tut was es will. Vielleicht wäre der erste Schritt in diese Richtung eine Art Computervirus, welcher in ein neurales Netzwerk gespeist wird, wobei man hierbei beachten muss, dass es schon ein spezieller sein muss, da selbstgeschriebene Viren ja auch ihren Zweck erfüllen, und zwar den den der Proggrammierer geplant hatte.

Don't try to be someone...
try to become someone...anytime!



melden

Neuronale-Netze

10.09.2003 um 23:50
In deinem Gehrirn passiert auch nicht viel mehr als "Strom fliest, Strom fliest nicht", dazu kommen chemische Stoffe und das wars in deinem Kopf. Deshalb wäre eine KI vielleicht auch mal soweit.

Ist dir eine Sache zu kompliziert hast du den wahren Kern noch nicht gefunden.


melden
voact ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

10.09.2003 um 23:56
Die meisten Menschen denken ja auch dualistisch und sind rationalität geplagt. Ich meine fast jeder MEnsch fragt sich nach dem Sinn seines Lebens, die seltensten fragen sich ob sie einen Sin brauchen.

Don't try to be someone...
try to become someone...anytime!



melden
voact ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

10.09.2003 um 23:57
Der nächste Schritt wäre dann sich über das brauchen in der Frage Gedanken zu machen um von der Notwendigkeit an sich wegzukommen.

Don't try to be someone...
try to become someone...anytime!



melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

11.09.2003 um 00:55
Im Gegensatz zu den traditionellen Algorithmen bieten die neuronalen Netze den Vorteil, eine Art "statistisches Mapping" zwischen den Daten (sog. Input) und den Resultaten (Outputs) zu realisieren, und dies, ohne dass explizite Regeln für das Funktionieren erforderlich sind, oder besser ausgedrückt, sie brauchen nicht programmiert zu werden.
Im neuronalen Netzwerk funktioniert die Kommunikation von Funktionseinheit zu Funktionseinheit -Neuronale Netzwerke sind lernfähige Informationsverarbeitungssysteme. Aufgrund von Beispielen können sie lernen, der Situation gemäss die bestmögliche Lösung zu wählen und diese entsprechend auch immer weiter zu verfeinern. Wie ein Gehirn ist ein technisches neuronales Netz ein komplexes System von autonomen Teilen, so genannten Neuronen oder Units, deren lokale Wechselwirkungen globale Aktivitätsmuster («Antworten») erzeugen. Ihre Dynamik ist nicht wie bei Computern durch Programme zentral gesteuert, sondern organisiert sich selber. Wie Gehirne sind technische neuronale Netze lernfähig, flexibel, tolerieren Abweichungen von der Norm und haben eine parallele Signalverarbeitung....
So kann sich aus ein wie Du sagst dualistisches denken - ein eigenständiges in laufer der Zeit entwickeln ...es kann Alternativen suchen wo es kein Proeß eines Dualistischen Denkens gibt -


melden
dejavu Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Neuronale-Netze

11.09.2003 um 01:06
Die Notendigkeit dieser Forschung wird nicht mehr in Frage gestellt bei den Wissenschaftler -

Wie schon gesgat :
Das Interesse soche Programme resultiert aus einer Reihe von praktischen Anforderungen, z.B. besonders aus der Raumfahrt -
So ist es zum Beispiel , zur Erkundung ferner Planeten Roboter einzusetzen, die ihre Aufgaben dort selbständig wahrnehmen können, da eine Fremdsteuerung, z.B. aufgrund der großen Entfernung, nur schwierig zu realisieren wäre...

Daher meine ich 100% - Das der Tag kommen wird,wo ein Ki es geben wird ...der mehr ist als nur eine Maschine.... !!!!!!!!!!!


melden