Super-Computer

Alles, was das Innenleben eines Computers betrifft. Problemlösungen, Kauftipps, Diskussionen über die aktuellen High-End-Geräte.
sledge
Senior Member
Senior Member

Benutzeravatar
 
Beiträge: 994
Registriert: 06.01.2003
Mi 10. Nov 2004, 01:59 - Beitrag #1

super-Computer

Immer wieder gibt es neue Numbercruncher, die verschiedensten Anforderungen genügen. Trotzdem geht es immer um die Flops, die sie schaffen. IBM hat nun den "Earth Simulator" überholt, der seit mehr als 2 Jahren Spitzenreiter an Rechenleistung gebracht hat.

Ich verweise mal auf:

http://www.spiegel.de/netzwelt/technologie/0,1518,327148,00.html

bzw auf:
http://www.top500.org/

Ich hoffe ein wenig Interesse auf die Machbarkeit von Computerleistung aufmerksam gemacht zu haben.

Meinungen und Meldungen könnt ihr hier gerne posten, aber bitte keine "Intel hat AMD geschlagen" oder andersrum- Meldungen. Es geht mir wirklich um Spitzenreiter von Computerleistung.


ex-mod-sledge

J.C.
Advanced Member
Advanced Member

Benutzeravatar
 
Beiträge: 392
Registriert: 14.06.2003
Fr 12. Nov 2004, 11:06 - Beitrag #2

Mich würde mal ein Cluster aus G5's interessieren.
(Bin Apple-Fetischist geworden) ^^

Traitor
Administrator
Administrator

Benutzeravatar
 
Beiträge: 17500
Registriert: 26.05.2001
Fr 12. Nov 2004, 15:18 - Beitrag #3

@JC: Lesen hilft ;)
Aber es geht auch deutlich billiger: Die als "Big Mac" oder "SuperMac" bekannte Anlage der Virginia State University in Blacksbury kostete gerade mal rund fünf Millionen Dollar. Sie liegt mit 12,25 Teraflops immerhin auf Platz sieben der Liste und besteht aus 1100 Apple G5-Rechnern mit 2.3 Gigahertz Dualprozessor.



Wobei ich davon ausgehe, dass die "Leistung pro Flop" bei Clustern deutlich niedriger liegt als bei echten Großrechnern, da vermutlich recht viel Rechenaufwand investiert werden muss, um die Aufgaben auf eigentlich nicht dafür ausgelegte Teilsysteme zu verteilen.
Oder nach dem rein wirtschaftlichen Argument: wären derartige Cluster wirklich so leistungsstark wie weit teurere Großrechner, würde außer den an ihnen eher als Testobjekte interessierten Herstellern wie IBM keiner mehr solche Maschinen bauen.

J.C.
Advanced Member
Advanced Member

Benutzeravatar
 
Beiträge: 392
Registriert: 14.06.2003
Fr 12. Nov 2004, 15:51 - Beitrag #4

Würd mich eh mal interessieren was man effektiv mit solch geballter Rechenpower anfangen soll/kann o.0
Klar, ständig die Wahrscheinlichkeit des 3. Weltkrieges ausrechnen und in ein U-Boot bauen ^^
Hihi, jaja, der CCC lebt.
Aber mal ernsthaft: --

Traitor
Administrator
Administrator

Benutzeravatar
 
Beiträge: 17500
Registriert: 26.05.2001
Fr 12. Nov 2004, 17:15 - Beitrag #5

Wie wär's, wenn du wirklich einfach mal den verlinkten Artikel liest?

Der EarthSimulator berechnet Klimamodelle, Blue Gene/L Proteinstrukturen, Columbia u.a. die "Alterungsprozesse von Atomwaffen", wobei letzteres wohl ganz definitiv nur ein u.a. ist.

J.C.
Advanced Member
Advanced Member

Benutzeravatar
 
Beiträge: 392
Registriert: 14.06.2003
Sa 13. Nov 2004, 13:45 - Beitrag #6

Alterungsprozess von A-Waffen? o.0
D.h.?

sledge
Senior Member
Senior Member

Benutzeravatar
 
Beiträge: 994
Registriert: 06.01.2003
Sa 13. Nov 2004, 14:55 - Beitrag #7

@J.C.: Für Klimaforschung, einfache Berechnungen von Matrizen (Forschungsinstitute freuen sich, wenn sie eine 10^12-stellige, nicht quadratische Matrize innerhalb von nem Tag berechnet bekommen, und nicht in 14 Tagen :)). Naja, alles was hohe Rechenlast verbrät, auch sowas wie Verschlüsselungsverfahren zu knacken, sowas ist ja auch im Interesse der Entwickler solcher Verfahren. Naja, so long,

sledge

Erdwolf
Senior Member
Senior Member

Benutzeravatar
 
Beiträge: 994
Registriert: 12.11.2001
So 21. Nov 2004, 05:13 - Beitrag #8

Alterungsprozess von A-Waffen? o.0

Logischerweise zerfallen die radioaktiven Stoffe, die deren Kernkomponente ausmachen.

nazgul
Excellent Member
Excellent Member

Benutzeravatar
 
Beiträge: 674
Registriert: 08.02.2003
Di 23. Nov 2004, 11:20 - Beitrag #9

Großrechner werden für ihre ganz spezielle Aufgaben zugeschnitten.

Der entscheidende Faktor ist die parallelisierbarkeit der Aufgabe - also wie Autark können die einzelnen Rechnwerke sein.

SETI beispielsweise ist hochparallelisierbar, deshalb bilden recht langsam angebundene Knoten einen doch sehr leistungsfähigen Cluster.

Je Höher der Kommunikationsaufwand wird, um so besser müssen die Knoten Vernetzt sein.

Die Leistung eines Clustersystems ist kurzgesagt Proportional zu Einzelknotenleistung,Einzelknotenanbindung,Masterknotenleistung und Parallelisierbarkeit einer aufgabe.

Die Leistungsmessungen für die TOP500 werden allerdings mit einem standartisierten Benchmark ermittelt -> nicht alle Bewertungen stimmen mit der Realität überein.

So ihr euch für Cluster/Parallelisierung interessiert, sucht mal nach dem Beowulf Projekt und Message Passing Interface


Zurück zu Hardware

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 5 Gäste