Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Unser Gehirn

380 Beiträge ▪ Schlüsselwörter: Gehirn, Gehirnspeicher ▪ Abonnieren: Feed E-Mail

Unser Gehirn

20.04.2009 um 15:52
Zitat von ApokalypsoSApokalypsoS schrieb:Jo dazu muss gesagt werden das nen Mensch nur 5% nutzt von dem was er zu verfügung hat an rechenleistung !!!
So ein Quark....! Unser Gehirn ist sehr gut ausgelastet, du musst mal bedenken, was es schon an "Rechenleistung" bedarf um die ganzen Organe am leben zu erhalten und die ganzen Tätigkeiten durchführen zu lassen.

*blubb*


melden

Unser Gehirn

20.04.2009 um 15:52
achso und 5% kann jeder nachrechnen und 500Tb ist dann schon bald eingeholt.
Selbst wenn man jede erinnerung auf video,bilder in jpeg/bmp packt usw. Reichen die 500TB locker aus um das leben eines 30/40 jährigen zuz speichern.Bei den filmen reicht sogar nen kleiner codec da so ne erinerung selten HD quali haben ;P


melden

Unser Gehirn

20.04.2009 um 15:54
Hauptsache mal dazwischen reden mit iwas was man selber denkt,das sind wissenchaftliche fakten !!!


1x zitiertmelden

Unser Gehirn

20.04.2009 um 15:55
Ok sry 5% sind schon bischen veraltet es könnten mittlerweile auch schon um die 10% sein


melden

Unser Gehirn

20.04.2009 um 15:56
@ApokalypsoS

http://science.orf.at/science/ays/117357 (Archiv-Version vom 12.05.2006)

bitte lesen

;)

*blubb*


melden

Unser Gehirn

20.04.2009 um 15:59
Zitat von ApokalypsoSApokalypsoS schrieb:Hauptsache mal dazwischen reden mit iwas was man selber denkt,das sind wissenchaftliche fakten !!!
Wo hast du denn deine wissenschaftlichen Fakten her? Anscheinend aus einem sehr sehr sehr alten Buch. Ich kopiere mal den letzten und entscheidenen Satz aus dem oben eingefügten Link:

(...)
Jedes Gehirn ist voll ausgelastet

Wissenschaftler stellen also klar: Das menschliche Gehirn wird von jedem von uns zu 100 Prozent ausgelastet, nur nicht immer in allen Bereichen gleichzeitig und anforderungsspezifisch.


Quelle: http://science.orf.at/science/ays/117357


melden

Unser Gehirn

20.04.2009 um 15:59
Aber sorry für's dazwischen reden

*blubb*


melden

Unser Gehirn

20.04.2009 um 16:01
@datrueffel

Und somit ist die Aussage von ApokalypsoS bedeutungslos.
Und die Frage wäre geklärt welche Nutzlast das Gehirn hat.

Außerdem hab ich auf der ersten Seite geschrieben, dass wenn das Gehirn wirklich 10^17 Bits Speicherplatz hat, dann sind das 11368 Terrabyte, also nichts von 500 TB.

Grüße


-----------------------------------------------------------------------------------------------------
Jigsaw was here!!!


melden

Unser Gehirn

20.04.2009 um 16:01
Naja ist mir nicht ausfürhlich genug,aber ich nehme es mal so an,auch wenn es mir nicht noch nicht fakt genug ist.Aber danke für den link.


melden

Unser Gehirn

20.04.2009 um 16:04
@ApokalypsoS

Was erwartest du denn noch? Die Antwort kam von einem Neurologen...! Wenn sich jemand mit Gehirnen auskennt, dann doch wohl ein Neurologe, oder?

*blubb*


melden

Unser Gehirn

20.04.2009 um 16:22
Ok ich hab anscheind nur falsch ausgedrückt wir nutzen 100% des hirns aber Trotzdem sind das nur 10% von der möglichen Leistung.Die restlichen 90% arbeiten Unbwusst.
Google spuckt da wirklich nur lycos und sowas aus was man nicht unbedingt ernst nehmen kann.Und hab nichts mehr gefunden was meine ausage stärkt :(

Sorry an Datrueffel für meine unsinnige aussage dir gegenüber

Aber B2T:
Was ich aber sehr interesannt finde an dem ganzen ist der Stromverbrauch bei solchen sachen.

Während es etwa 10hoch13 bis 10hoch16 analoge Rechenoperationen pro Sekunde schafft und dabei etwa 15 bis 20 Watt an chemischer Leistung benötigt.


Der Supercomputer Blue Gene/L von IBM bis zu 3,6·10hoch14 Gleitkommaoperationen pro Sekunde mit doppelter Genauigkeit, wozu jedoch etwa 1,2 Megawatt benötigt werden.

Jedenfalls ist das hirn ein sehr effezientes system.


melden

Unser Gehirn

20.04.2009 um 16:26
Wie kommt ihr eigentlich auf diese Werte?

ich meine jetzt xxxxxTerabyte?
unser hirn speicher doch Informationen relational zueinander.

Jede zusätzliche Information wird prinzipiell mit jeder anderen verknüpft. Jedes zusätzliche Neuron potenziert den Inhalt jede Verbindung verfielfacht sie.

Rein rechnerisch müssten da unglaublich viel mehr Bits rauskommen wenn man das massiv parralelverarbeitende Hirn überhaup so interpretieren kann

Diese Werte habe ich(als grobe Schätzung) für den reinen Arbeitsspeicher gelesen. Der Festspeicher müsste das um das vielfache übersteigen.


melden

Unser Gehirn

20.04.2009 um 16:52
@interpreter

Wurde auf Seite 1 genannt, musst du mal schauen.
Klar werden Informationen relational gespeichert aber nur um mal ne theoretische Zahl zu haben verstehste ;)

Du meinst das was wir berechnet haben, ist bildlich gesprochen der "Arbeitsspeicher" des Gehirns und du meinst auch, dass die, ich nenn sie mal "Festplatte" des Gehirns, wesentlich höhere Kapazitäten hat?

Natürlich dürfen wir das hier jetzt nicht so technisch sehen, ist ja doch ganz anders.
Da das Gehirn ja wie schon gesagt wurde auch parallel arbeitet usw.
Vergleich mit Computern
Oft werden Vergleiche zwischen der Leistungsfähigkeit eines Computers und der des menschlichen Gehirns angestellt. Seit das Gehirn als Sitz kognitiver Leistung erkannt wurde, wurde es in der Literatur immer mit dem komplexesten verfügbaren technischen Apparat verglichen (Dampfmaschine, Telegraph). So versuchte man auch, aus der Funktionsweise von Computern auf die des Gehirns zu schließen. Heute dagegen bemüht man sich in der bionischen Neuroinformatik, die Funktionsweise des Gehirns teilweise auf Computern nachzubilden bzw. durch sie auf neue Ideen zur „intelligenten“ Informationsverarbeitung zu kommen (siehe Blue Brain). Es ergibt sich die Perspektive, dass das Gehirn als Struktur für Denk- und Wissensproduktion eine Architektur liefert, die sich zur Nachahmung empfiehlt. Künstliche neuronale Netzwerke haben sich bereits bei der Organisation künstlicher Intelligenzprozesse etabliert.

Rechenleistung und Leistungsaufnahme
Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während es etwa 1013 bis 1016 analoge Rechenoperationen pro Sekunde schafft und dabei etwa 15 bis 20 Watt an chemischer Leistung benötigt, schafft der Supercomputer Blue Gene/L von IBM bis zu 3,6·1014 Gleitkommaoperationen pro Sekunde mit doppelter Genauigkeit, wozu jedoch etwa 1,2 Megawatt benötigt werden. Intels erster Teraflop-Chip Prototyp „Terascale“ mit 80 Cores schafft hingegen etwa 1012 Gleitkommaoperationen mit einfacher Genauigkeit bei 85 Watt (oder 2·1012 Gleitkommaoperationen bei 190 Watt und 6,26 GHz), was immer noch dem 50- bis 5000-fachen Strombedarf entspricht. Zwar erreichen moderne 3D-Grafikkarten vergleichbare Werte bei geringerem elektrischem Leistungsbedarf, allerdings sind Grafikchips stärker auf bestimmte Rechenvorgänge spezialisiert.

Hierbei gilt es jedoch zu beachten, dass die hohe Rechenleistung des Gehirns vor allem durch seine vielen parallelen Verbindungen (siehe auch: Konnektivität) und nicht durch eine hohe Geschwindigkeit bei den einzelnen Rechenvorgängen (Taktfrequenz) erzielt wird. Künstliche Neuronen arbeiten 105 mal so schnell wie Neuronen des menschlichen Gehirns. Zudem treten bei analogen Rechenvorgängen Ungenauigkeiten auf, die bei der digitalen Verarbeitung vermieden werden.


Speicher
Zusätzlich zur Parallelisierung stellt ein neuronales Netzwerk gleichzeitig sowohl Speicher- als auch Verarbeitungslogik dar, während diese bei Computern, die auf der Von-Neumann-Architektur basieren, getrennt sind. Dies bewirkt, dass in einem einfachen neuronalen Netzwerk mit jedem Taktzyklus der gesamte Speicher aktualisiert wird, während ein Computer den Inhalt des Speichers schrittweise aktualisieren muss.

Schätzungen zufolge kann das menschliche Gehirn etwa 100 Terabyte an Daten in chemischer Form in den Synapsen halten. Allerdings wird die Information im Gehirn nicht exakt und linear gespeichert wie in einem Von-Neuman-Computer, sondern unterläuft einen komplexen mehrstufigen Lernprozess bei dem das Gehirn versucht unwichtige Information temporal zu verwerfen und wichtige Informationen hierarchisch auf Basis bereits vorhandener Gehirnstrukturen zu generalisieren.
Mehr zum Gehirn auf Wikipedia: Gehirn#Leistung des Gehirns



-----------------------------------------------------------------------------------------------------
Jigsaw was here!!!


1x zitiertmelden

Unser Gehirn

20.04.2009 um 17:07
@Tobspeed
Zitat von TobspeedTobspeed schrieb:Du meinst das was wir berechnet haben, ist bildlich gesprochen der "Arbeitsspeicher" des Gehirns und du meinst auch, dass die, ich nenn sie mal "Festplatte" des Gehirns, wesentlich höhere Kapazitäten hat?
Genau das meine ich. Hab mich mal mit Neuronalen Netzen von der rein programmiererischen Seite beschäftigt.
Der festspeicher liegt in der rein biologischen Größe der einzelnen neuronen und Verbindungen diese können im Gegensatz zu Computerbits und Bytes nicht nur 2 Zustände annehmen sondern hunderte oder tausende. Jedes Neuron hat tausende Verbindungen zu anderen Neuronen die widerum hunderte Größen annehmen können und dazu gibt es noch ein 100-1000 Milliarden Neuronen. Die Rechenmethode die den fesspeicher berechnet müsste denn in etwa so aussehen:
(Größen der Verbindungen*Anzahl der Verbindungen)^Anzahl der Neuronen /2

also ((100*10000)^500Mia)/2 Sein.
die Zahl hat etwa 300Bio Stellen


melden

Unser Gehirn

20.04.2009 um 17:20
@interpreter

Also im Prinzip nicht so ganz berechenbar. Aber die Formel ist schon mal ein Ansatz.
Aber wie schon gesagt, durch das parallele Arbeiten des Gehirns ist das dennoch nicht möglich oder?

Übrigens, da fällt mir ein, dass die Menschheit doch gar nicht weiß, wie das Gehirn speichert oder? Das was wir wissen ist doch das man schon seit langem weiß wie die Neuronen untereinander verschaltet sind, aber nicht wie die Informationen tatsächlich verarbeitet und gespeichert werden?

Wir können lediglich annehmen und schätzen aber eine wissenschaftlich einwandfreie Berechnung hat meines Wissens noch nie jemand durchführen können.

Grüße


-----------------------------------------------------------------------------------------------------
Jigsaw was here!!!


melden

Unser Gehirn

20.04.2009 um 17:51
@Tobspeed
naja im Prinzip wissen wir es halt doch;)

ist ziemlich schwer zu erklären aber weitestgehen wissen wir es ebend schon. Gibt sogar schon Simulationsprogramme für wenige neuronen die sogar schon technische Anwendungen haben.


melden

Unser Gehirn

20.04.2009 um 17:58
und wissen die neuro-fuzzys schon wie der stack im menschlichen gehirn arbeitet? nachdem ja andauernd das gehirn mit einem "rechner" verglichen wird, sollte es ja auch ueberlegungen dazu geben wie eben der stack im gehirn funktioniert;)


melden

Unser Gehirn

20.04.2009 um 18:07
Der "Stack im Gehirn" ist schon begrifflich völlig daneben. Unser Hirn abrbeitet Paralell, es gibt keinen Befehls und keinen Speicherstack weil nix nacheinander bearbeitet oder wärend der Bearbeitung unterbrochen wird.


melden

Unser Gehirn

20.04.2009 um 18:17
ein parallel (ver)arbeitendes system braucht keinen stack?

hast Du da "infos" dazu?


melden

Unser Gehirn

20.04.2009 um 18:25
@neoschamane
Der Zweck eines Stapelspeichers ist es Datensätze für die spätere verwendung zwischenzuspeichern, stimmen wir darin überein?

Wenn wir darin übereinstimmen ergibt sich daraus das ein System das Nichts späteren verwendung zwischnespeichert folglich keinen Stapelspeicher braucht.

in unserem Hirn wird jede eingehende Information ohne Zwischenspeicherung weitergeleitet, jeder Taktzyklus ist ein Verarbeitungsschritt pro Information.

Das kann man das nicht auf paralell verarbeitende Systeme verallgemeinern, für neuronale Netze gilt es aber in der Tat


1x zitiertmelden