MINI² - Die ComMINIty

Normale Version: Der über Alles in der Welt quatsch Thread - Part 5
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
ich geh jetzt auch mal ins bett, n8 Winke 02
n8Winke 02
Rechenleistung und Leistungsaufnahme des menschlichen Gehirns

Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während es etwa 10^13 bis 10^16 analoge Rechenoperationen pro Sekunde schafft und dabei etwa 15 bis 20 Watt an chemischer Leistung benötigt, schafft der Supercomputer Blue Gene/L von IBM bis zu 3,6·10^14 Gleitkommaoperationen pro Sekunde mit doppelter Genauigkeit, wozu jedoch etwa 1,2 Megawatt benötigt werden. Intels erster Teraflop-Chip Prototyp „Terascale“ mit 80 Cores schafft hingegen etwa 10^12 Gleitkommaoperationen mit einfacher Genauigkeit bei 85 Watt (oder 2·10^12 Gleitkommaoperationen bei 190 Watt und 6,26 GHz), was immer noch dem 50- bis 5000-fachen Strombedarf entspricht. Zwar erreichen moderne 3D-Grafikkarten vergleichbare Werte bei geringerem elektrischem Leistungsbedarf, allerdings sind Grafikchips stärker auf bestimmte Rechenvorgänge spezialisiert.
Hierbei gilt es jedoch zu beachten, dass die hohe Rechenleistung des Gehirns vor allem durch seine vielen parallelen Verbindungen (siehe auch: Konnektivität) und nicht durch eine hohe Geschwindigkeit bei den einzelnen Rechenvorgängen (Taktfrequenz) erzielt wird. Künstliche Neuronen arbeiten 105 mal so schnell wie Neuronen des menschlichen Gehirns. Zudem treten bei analogen Rechenvorgängen Ungenauigkeiten auf, die bei der digitalen Verarbeitung vermieden werden.

Speicher

Zusätzlich zur Parallelisierung stellt ein neuronales Netzwerk gleichzeitig sowohl Speicher- als auch Verarbeitungslogik dar, während diese bei Computern, die auf der Von-Neumann-Architektur basieren, getrennt sind. Dies bewirkt, dass in einem einfachen neuronalen Netzwerk mit jedem Taktzyklus der gesamte Speicher aktualisiert wird, während ein Computer den Inhalt des Speichers schrittweise aktualisieren muss.
Schätzungen zufolge kann das menschliche Gehirn etwa 100 Terabyte an Daten in chemischer Form in den Synapsen halten. Allerdings wird die Information im Gehirn nicht exakt und linear gespeichert wie in einem Von-Neumann-Computer, sondern unterläuft einen komplexen mehrstufigen Lernprozess bei dem das Gehirn versucht unwichtige Information temporal zu verwerfen und wichtige Informationen hierarchisch auf Basis bereits vorhandener Gehirnstrukturen zu generalisieren.

Respekt
die 53 schrieb:Rechenleistung und Leistungsaufnahme des menschlichen Gehirns

Bei Vergleichen mit modernen Computern zeigt sich die Leistungsfähigkeit des menschlichen Gehirns. Während es etwa 10^13 bis 10^16 analoge Rechenoperationen pro Sekunde schafft und dabei etwa 15 bis 20 Watt an chemischer Leistung benötigt, schafft der Supercomputer Blue Gene/L von IBM bis zu 3,6·10^14 Gleitkommaoperationen pro Sekunde mit doppelter Genauigkeit, wozu jedoch etwa 1,2 Megawatt benötigt werden. Intels erster Teraflop-Chip Prototyp „Terascale“ mit 80 Cores schafft hingegen etwa 10^12 Gleitkommaoperationen mit einfacher Genauigkeit bei 85 Watt (oder 2·10^12 Gleitkommaoperationen bei 190 Watt und 6,26 GHz), was immer noch dem 50- bis 5000-fachen Strombedarf entspricht. Zwar erreichen moderne 3D-Grafikkarten vergleichbare Werte bei geringerem elektrischem Leistungsbedarf, allerdings sind Grafikchips stärker auf bestimmte Rechenvorgänge spezialisiert.
Hierbei gilt es jedoch zu beachten, dass die hohe Rechenleistung des Gehirns vor allem durch seine vielen parallelen Verbindungen (siehe auch: Konnektivität) und nicht durch eine hohe Geschwindigkeit bei den einzelnen Rechenvorgängen (Taktfrequenz) erzielt wird. Künstliche Neuronen arbeiten 105 mal so schnell wie Neuronen des menschlichen Gehirns. Zudem treten bei analogen Rechenvorgängen Ungenauigkeiten auf, die bei der digitalen Verarbeitung vermieden werden.

Speicher

Zusätzlich zur Parallelisierung stellt ein neuronales Netzwerk gleichzeitig sowohl Speicher- als auch Verarbeitungslogik dar, während diese bei Computern, die auf der Von-Neumann-Architektur basieren, getrennt sind. Dies bewirkt, dass in einem einfachen neuronalen Netzwerk mit jedem Taktzyklus der gesamte Speicher aktualisiert wird, während ein Computer den Inhalt des Speichers schrittweise aktualisieren muss.
Schätzungen zufolge kann das menschliche Gehirn etwa 100 Terabyte an Daten in chemischer Form in den Synapsen halten. Allerdings wird die Information im Gehirn nicht exakt und linear gespeichert wie in einem Von-Neumann-Computer, sondern unterläuft einen komplexen mehrstufigen Lernprozess bei dem das Gehirn versucht unwichtige Information temporal zu verwerfen und wichtige Informationen hierarchisch auf Basis bereits vorhandener Gehirnstrukturen zu generalisieren.

Respekt
Smile!
mein kleiner sieht aus wie neu Hurra!

gurkenmaske wirkt wunder Mr. Orange
Nix los hier
chpater saar pfalz hat die schönsten MINIs Sonne



http://www.inworld-agentur.de/csp082009.html
die 53 schrieb:chpater saar pfalz hat die schönsten MINIs Sonne



http://www.inworld-agentur.de/csp082009.html
Winke 02

Wow! Schöne Bilder!!!Top
Thomas4005 schrieb:Winke 02

Wow! Schöne Bilder!!!Top

Nicken

und ein video gibts nu auch (70mb!)

http://www.inworld-agentur.de/videocsp082009.html
die 53 schrieb:Nicken

und ein video gibts nu auch (70mb!)

http://www.inworld-agentur.de/videocsp082009.html
Winke 02

Plug In?? Was ist das? Muss ich das installieren bevor ich das Video schauen kann?