Prozessoren der Zukunft
02.12.2007 um 14:54
http://elmicro.com/de/propeller.html
http://elmicro.com/de/propeller.html
hier nder Nachfolger der Basic-Stamp, die in den 90er für Furore sorgte.
8 Kerne und 160 Milliuonen Rechnungen / sec in einem 9mm Gehäuse. Mit Entwicklungsumgebung und spezieller Multitaskingsoftware.
Und das ist eigentlich auch schon wieder längst veraltet :-)
melden
Prozessoren der Zukunft
02.12.2007 um 18:30
was denkt ihr über boilogische lösungen
habe mal was über einen "dna" prozessor gehört o.ä.
soll gross wie ein tropfen mehrere heutige rechner zusammen in den schatten stellen
melden
Prozessoren der Zukunft
02.12.2007 um 18:39
<<was denkt ihr über boilogische lösungen<<
wie wärs mit etwas mehr Info? Was soll das sein? wie soll es funktionieren? wo wiord geforscht? was sind die rgebnisse? Prototypen? Aussichten?
Ansponsten sind "was denkt ihr über"-Fragen und Threads meinst sehr......naja, schon klar, oder?
melden
Prozessoren der Zukunft
02.12.2007 um 18:44
tja ich habe leider auchnicht mehr als das gehört
soll aber auf kleinstbasis funktionieren und automatisch ohne strom nur mit nährstoffen also passiv quasie
melden
Prozessoren der Zukunft
02.12.2007 um 18:55
<<tja ich habe leider auchnicht mehr als das gehört<<
na das ist aber ein bissle wenig.
"was denkt ihr über.....über was weis ich aber leider nicht"
melden
Prozessoren der Zukunft
02.12.2007 um 19:20
kann ja sein ihr wüsstet etwas darüber
melden
Prozessoren der Zukunft
03.12.2007 um 10:07
<<kann ja sein ihr wüsstet etwas darüber<<
außer das das immer wieder mal seit Jahrzehnten in diversen Si-Fi Geschichten auftaucht und deshalb auch den Weg in die diversen Legenden genommen hat, habe ich noch nie was ernsthaftes darüber gehört. Auf jedenfall nicht in dem Ansatz als "Bio-Computer".
An Schnittstellen zu Nervenzellen wird intesniv geforscht, ebenso an biologischen Sensoren, Aktuatoren, etc. Aber nicht an einer biuologischen Rechenmaschiene, da sehe ich auch keine Vorteile drin, den bilogisches Gewebe ist vor allem mal eins, nämlich empfindlich und grundsätzlich sterblich, was ein Computer nun mal überhaupt nicht sein sollte.
melden
Prozessoren der Zukunft
03.12.2007 um 10:10
"den bilogisches Gewebe ist vor allem mal eins, nämlich empfindlich und grundsätzlich sterblich, was ein Computer nun mal überhaupt nicht sein sollte."
Wäre doch süss wenn man dem Computer erst gut zureden müsste damit er sich mal bequemt ein wenig schneller zu arbeiten ;)
melden
Prozessoren der Zukunft
05.12.2007 um 18:55
Wir könnten schon längst weitaus leistungsstärkere Computer besitzen. Eigentlich haben wir diese auch schon, nur nicht in Haushalten, aber es gibt durchaus sog Großrechner, die selbst heute noch mehrere Räume füllen.
Das Problem an sich in der Prozessoren-Technologie ist doch, dass stets nur versucht wird, leistungsstärkere CPU's zu schaffen, wobei aber hier physikalische Grenzen gesetzt sind. Diese könnte man aber sehr einfach umgehen, indem man die CPU's nicht "Parallel" schalten wie in den jüngsten Quad Core CPU's, sondern vielmehr versucht, eine "Reihenschaltung" dieser CPU's anzustreben. Das bedeutet, dass einzelne CPU's nicht nur einzelnen Anwendungen bereit stehen, sondern sie Kapazitätsübergreifend die Aufgaben der Überlastung übernehmen. Dies wird jedoch nicht getan. Stattdessen wird nun mittels der Quad-Core, oder allgemein gesagt, Multi-Core-Cpu's versucht, einzelne Anwendungen an einzelne CPU's zu "verteilen".
Praktisch bedeutet dies:
Video läuft auf EINEM CORE....
Musik oder sonstwas auf dem ANDEREN CORE...
Word oder Excell wieder auf einem WEITEREN CORE
usw.
Prinzipiell ist dies auch eine logische Lösung der aufkommenden Prozessor-Problemen.
Allerdings bedeutet dies NICHT, dass es auch leitsungsfähigere CPU's sind. Das stimmt SO nämlich nicht.
Zwar werden einzelne Befehlsketten Prozessorenübergreifend bearbeitet, allerdings nur in sehr begrenzter Weise.
Die Frage ist auch nicht, WIE KLEIN ein Prozessor sein muss, da die Größe nur bedingt mit Leistung in Verbindung gebracht werden kann, und die kleinere Anordnung der Transistoren innerhalb eines Prozessors auch mit Problemen einhergeht.
Die Zukunft wird also folgende sein:
Prozessoren werden immer spezifischer einzelnen Befehlskette zugeordnet werden, bis irgendwann mal ein einziger Prozessor für z.b "nur" der Uhr zugeordnet wird(dies war jetzt etwas überspitzt dargestellt, um den Sinn eindeutig zu erläutern!).
Allerdings stellt nun AMD mit ihrem Quad Core "Phenom" eine neue Art von CPU dar, welche einen sogenannten L3 Cache besitzt. Dieser L3 Cache funktioniert PROZESSORÜBERGREIFEND und ist somit nicht nur einem Kern(CPU) zugeordnet wie beispielsweise bei Intel's Quad Core prozessoren.
Man muss sich auch vorab einmal die Frage stellen, WAS genau eine CPU an ihre Grenzen bringt.
Die Grenzen sind also physikalisch: Überlastung der Rechenleistung
und thermisch: Die Wärmeentwicklung die die CPU durch die hohe Rechenleistung abgibt.
Nun kann man entweder CPU's extrem hoch takten und gleichzeitig mit Stickstoff kühlen, oder einen Kühlschrank drumherum bauen, oder aber man geht andere Wege, welche die CPU Hersteller nun für sich entschieden haben, eben dieses MULTI-CORING.
Im Vergleich zur Vergangenheit sind im übrigen die HEUTIGEN Prozessoren ein enormer Fortschritt. Für beispielsweise eine CPU-Rechenleistung von 4 GHz, hätte man vor 25 Jahren noch Räume voll von Prozessoren stellen müssen. Dies nur einmal, um den Fortschritt von Rechenleistung einmal praktisch darzustellen.
Die Zukunft liegt also im Mulit-coring Bereich, welcher allerdings auch heute noch sehr "mager" und alles andere als perfektioniert ist. Allerdings meine Ich, dass AMD mit ihrem neuen Phenom ganz klar die richtige Richtung angibt, des es ermöglicht, schon in naher Zukunft, Prozessoren einwandfrei in einer Art Mischung aus Parallel-und Reihenschaltung arbeiten zu lassen.
Somit sind selbst 20 Prozessoren innherhalb eines Systems durchaus möglich, welche einerseits parallele, also nebeneinander ausgeführte Befehlssätze lesen, also auch übergeordenete Cpu's, welche der "Überlastung" der anderen Cpu's Abhilfe leisten werden.
Man darf also gespannt sein, auf die nächsten Generationen der Cpus, aber auch der Betriebssysteme, denn diese müssen auch die geordnete Verarbeitung der Befehlssätze und somit der klaren Aufteilung und Zuweisung der CPU's entsprechen können.
MfG,
ST
melden
Prozessoren der Zukunft
05.12.2007 um 21:25
quanten prozessoren gibts auch noch
bzw wird geforscht
melden
Prozessoren der Zukunft
05.12.2007 um 23:04
Jop der erster wurde im Labor getestet.
Mfg Matti15
melden
Prozessoren der Zukunft
06.12.2007 um 00:16
@ Tyranos
Es ist beides. Aber eine REINE Parallelschaltung von Prozessoren würde ja zu keiner Mehrleistung führen.
Also wenn du beispielsweise eine hochrechenintensive Aufgabe hast, welchem jedoch nur EIN cpu Kern zugewiesen wäre, so könnte auch dieser eine Kern nur an seine Kapazitäts-bzw Rechenleistung gehen, und nicht darüber hinaus. Gleichzeitig könntest du aber während dieser hochleistungsrechenaufgabe noch z.b. Musik hören , da dafür ein weiterer Kern (nicht der rechenaufgabe gewidmet) übrig wäre.
Der Leisungszuschuss muss also daraus entstehen, dass wenn der eine Kern an seine Kap-Grenze gestossen ist....dann ein WEITERER den Rest übernimmt ...falls dies immernoch nicht zum Lösen der Aufgabe geführt hat, wird ein 3. Kern hinzugeszogen usw usw.. Jetzt verstanden?
Das meinte ich also mit "in Reihe" geschalten. Allerdings bekommt hat hier nun ein Problem, wenn z.b. der erste Kern Rechenaufgaben zugewiesen bekommt, allerdings der Zweite Kern zuerst die Ergebnisse des ersten Kerns benötigt. Denn dann kann wieder kein Kapazitäts-bzw Leistungshinzugewinn erziehlt werden.
Insofern bedarf es einer sehr genau konstruierten Aufgabenverteilung, sodass sich die Prozessoren aber nicht gegenseitig im Weg stehen, denn sonst bremst es die Rechenaufgabe auch wieder aus.
Somit wird der Schlüssel des Erfolges vorerst einmal in der Steuerung der (parallel geschaltenen) Prozessoren zu finden sein, also die Aufgabenverteilung um einen spürbaren Leistungshinzugewinn erzielen zu können.
Allerdings ist das Prozessorenproblem nicht das einzige, wie ich meine. Denn es ist nunmal ein Fakt, dass der Prozessor schon immer das schnellste im Gesamtrechner war. Was aber nutzt es, wenn der Prozessor so schnell ist, allerdings die Datenleitungen zu anderen Komponenten sehr langsam? Oder anders gefragt, was bringt ein Ferrari bei Schrittgeschwindigkeit(wegen eines Staus)?
Dies ist eine ebenso wichtige Komponente, die oftmal ausser Acht gelassen wird. Im Klartext bedeutet dies also, Front Side Bus, Caches(sind sehr schnell!), Southbridge, Northbridge(welche andere Geräte wie RAM und Peripherie ansteuern) und die anderen Verbindungen (Busse) die es da alle so gibt.
Hier entstehen nämlich die eigentlichen Ausbremsungen und Verlust von Rechenleistung im Gesamtrechner. Heute sind viele Rechner ganz einfach schneller, weil sie mit höheren Bussen ausgestattet werden. Diese erreichen zwar immernoch nicht die CPU-spitzenwerte, aber immerhin werden sie schneller, und somit kann auch das gesamte, errechnete SCHNELLER TRANSPORTIERT werden.
melden
Prozessoren der Zukunft
09.12.2007 um 01:31
Ich habe mal im Fernseher was von Bio-Computern gesehen . Es erscheint mir logisch das man Informationen in Form von DNA-ähnlichen Fäden in Zellen speichert ... schließlich ist der komplette Bauplan meines Körpers in jeder meiner einzelnen Zellen ... das ist eine gigantische Leistung !
Jedenfalls macht Mutter Natur ausnahmslos alles besser als es der Mensch könnte - in vielen Fachgebieten hat sich der Mensch schon etwas abgeguckt von der Natur ;)
melden
Prozessoren der Zukunft
09.12.2007 um 09:41
Ja ... man könnte sogar sagen das wir uns die Atomreaktoren/Kernspaltung von der Natur abgeguckt haben. Aber das ist Offtopic ...
MfG
melden
Prozessoren der Zukunft
09.12.2007 um 09:46
@der_250
<<Jedenfalls macht Mutter Natur ausnahmslos alles besser als es der Mensch könnte<<<
wer so etwas sagt hat noch nie über diese Aussage darüber nachgedacht. Natürlich gibt es viele Problemstellungen/Aufgaben die man technisch erheblich "besser" (auf ide Aufgabenstellung bezogen) lösen kann als es die Lösungen in der Natur sind.
Das ist alleine schon aufgrund der evolutionären Logik selbstverständlich.
melden
Prozessoren der Zukunft
09.12.2007 um 09:48
<<man könnte sogar sagen das wir uns die Atomreaktoren/Kernspaltung von der Natur abgeguckt haben.<<
naja, das ist ebenso weit hergeholt. Nur weil man mal sowas wie einen "natürlichen" Reaktor gefunde hat ist das trotzdem niemals ein Vorbild zum nachbauen gewesen. Alleine schon weil es (mittlerweile also seit ein paar Milliarden Jahren) überhaupt kein ausreichend angereichertes Uran mehr in der Erdkruste gibt um eine Kettenreaktion anzuwerfen.
melden