@interpreterWurde auf Seite 1 genannt, musst du mal schauen.
Klar werden Informationen relational gespeichert aber nur um mal ne theoretische Zahl zu haben verstehste
;)Du meinst das was wir berechnet haben, ist bildlich gesprochen der "Arbeitsspeicher" des Gehirns und du meinst auch, dass die, ich nenn sie mal "Festplatte" des Gehirns, wesentlich höhere Kapazitäten hat?
Natürlich dürfen wir das hier jetzt nicht so technisch sehen, ist ja doch ganz anders.
Da das Gehirn ja wie schon gesagt wurde auch parallel arbeitet usw.
Vergleich mit Computern
Oft werden Vergleiche zwischen der Leistungsfähigkeit eines Computers und der des menschlichen Gehirns angestellt. Seit das Gehirn als Sitz kognitiver Leistung erkannt wurde, wurde es in der Literatur immer mit dem komplexesten verfügbaren technischen Apparat verglichen (Dampfmaschine, Telegraph). So versuchte man auch, aus der Funktionsweise von Computern auf die des Gehirns zu schließen. Heute dagegen bemüht man sich in der bionischen Neuroinformatik, die Funktionsweise des Gehirns teilweise auf Computern nachzubilden bzw. durch sie auf neue Ideen zur „intelligenten“ Informationsverarbeitung zu kommen (siehe Blue Brain). Es ergibt sich die Perspektive, dass das Gehirn als Struktur für Denk- und Wissensproduktion eine Architektur liefert, die sich zur Nachahmung empfiehlt. Künstliche neuronale Netzwerke haben sich bereits bei der Organisation künstlicher Intelligenzprozesse etabliert.
Rechenleistung und Leistungsaufnahme
Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während es etwa 1013 bis 1016 analoge Rechenoperationen pro Sekunde schafft und dabei etwa 15 bis 20 Watt an chemischer Leistung benötigt, schafft der Supercomputer Blue Gene/L von IBM bis zu 3,6·1014 Gleitkommaoperationen pro Sekunde mit doppelter Genauigkeit, wozu jedoch etwa 1,2 Megawatt benötigt werden. Intels erster Teraflop-Chip Prototyp „Terascale“ mit 80 Cores schafft hingegen etwa 1012 Gleitkommaoperationen mit einfacher Genauigkeit bei 85 Watt (oder 2·1012 Gleitkommaoperationen bei 190 Watt und 6,26 GHz), was immer noch dem 50- bis 5000-fachen Strombedarf entspricht. Zwar erreichen moderne 3D-Grafikkarten vergleichbare Werte bei geringerem elektrischem Leistungsbedarf, allerdings sind Grafikchips stärker auf bestimmte Rechenvorgänge spezialisiert.
Hierbei gilt es jedoch zu beachten, dass die hohe Rechenleistung des Gehirns vor allem durch seine vielen parallelen Verbindungen (siehe auch: Konnektivität) und nicht durch eine hohe Geschwindigkeit bei den einzelnen Rechenvorgängen (Taktfrequenz) erzielt wird. Künstliche Neuronen arbeiten 105 mal so schnell wie Neuronen des menschlichen Gehirns. Zudem treten bei analogen Rechenvorgängen Ungenauigkeiten auf, die bei der digitalen Verarbeitung vermieden werden.
Speicher
Zusätzlich zur Parallelisierung stellt ein neuronales Netzwerk gleichzeitig sowohl Speicher- als auch Verarbeitungslogik dar, während diese bei Computern, die auf der Von-Neumann-Architektur basieren, getrennt sind. Dies bewirkt, dass in einem einfachen neuronalen Netzwerk mit jedem Taktzyklus der gesamte Speicher aktualisiert wird, während ein Computer den Inhalt des Speichers schrittweise aktualisieren muss.
Schätzungen zufolge kann das menschliche Gehirn etwa 100 Terabyte an Daten in chemischer Form in den Synapsen halten. Allerdings wird die Information im Gehirn nicht exakt und linear gespeichert wie in einem Von-Neuman-Computer, sondern unterläuft einen komplexen mehrstufigen Lernprozess bei dem das Gehirn versucht unwichtige Information temporal zu verwerfen und wichtige Informationen hierarchisch auf Basis bereits vorhandener Gehirnstrukturen zu generalisieren.
Mehr zum Gehirn auf
Wikipedia: Gehirn#Leistung des Gehirns-----------------------------------------------------------------------------------------------------
Jigsaw was here!!!