News China baut schnellsten Supercomputer mit Nvidia-GPUs

Ycon schrieb:
Selbst reine RISC-CPUs können da nicht mehr wirklich mithalten!

Naja, IBM arbeitet am Blue Waters (POWER7) und am Sequoia (BlueGene/Q), die zumindest eine deutlich höhere Peakperformance (20 PetaFLOPS) haben sollen.
 
Soldier Boy schrieb:
wenn das keine fanboy aussage war... gerade in solchen dingen ist ati durch ihre reine rechenleistung besser dran als nvidia.

Aha. Ist dem so?

Was nützt mir die theoretische Rechenleistung einer ATI wenn ich sie nicht in die Praxis umsetzen kann. Weil die SDKs buggy sind, weil sich ATI einen, pardon, Scheiß um die Nutzer kümmert.

Nvidia hat sich halt im Laufe der Zeit einen echt guten Ruf ERARBEITET. Durch guten Support, aktive Unterstützung der User, etc.
 
Ein paar mehr Infos findet man bei Golem: http://www.golem.de/1010/78967.html

Ein Interessanter Link für GPGPU Interessierte. Eine Auflistung mit Links zu bissher bekannten GPU Anwendungen und Benchmarks inklusive Angaben zur verwendeten Schnittstelle(OpenCL/Stream/Cuda). :forum.beyond3d. Um auf spannende AMD/Nvidia Vergleiche zu stoßen, muss man allerdings noch das eine oder andere OpenCL-Bench-Forum nach Uservergleichen durchstöbern. Viele der Benches kann man aber auch selber downloaden und testen.
 
Was macht AMD nur? Warum bietet AMD seine GPU nicht in einem 19" Reckgehäuse an? Ich frage mich ob die Firma einfach noch "nicht dazu gekommen ist", oder auf eine Umsetzung in der Zukunft via Fusion in der CPU setzt.
 
Zuletzt bearbeitet:
Oftmals ist es sinnvoll nicht überall rum zu Pfuschen sondern sich auf das Kerngeschäft zu Konzentrieren.
es ist ja nicht so, dass man da schnell mal 10000 Grafikkarten auf nen Mainboard steckt und das Läuft dann.

Ich Werf AMD ja auch nicht vor, dass sie keine Handys Herstellen.....
 
Das stimmt schon, aber mehr oder weniger hat AMD mit Stream den Stein ins rollen gebracht, um sich nun ziemlich rar auf der Bühne zu machen. Es ist ja nicht gerade so, als ob professionelle GPUs irgendwie unlukrativ währen(Wie dem auch sei, hat bestimmt ne interessante Hintergrundsdtory).
 
Wenn der Brunnen trocken ist, erkennt man den Wert des Wassers.

Chinesisches Sprichwort
 
Zuletzt bearbeitet:
ich frage mich wie diese ganzen CPUs und Tesla Karten überhaupt sinnvoll zusammenarbeiten können. Ich schätze mal das sind alles immer Dual Sockel Mainboards mit jeweils einer Tesla Karte und 2 Xenon CPUs drauf, aber wie kommunizieren die dann alle miteinander??? Doch wohl nicht über LAN oder? ^^ Das wäre doch viel zu langsam. Die müssen doch irgendeine verrückte Sache entwickelt haben wie Crossfire oder SLI nur für ganze Mainbords oder so :D Würde das gerne mal auf nem Bild oder Video sehen wie die zusammenhängen.
 
Leider bieten Reizwörter wie China und Nvidia offenbar genug Potential genug heiße Luft zu produzieren um die 4 MW gleich hier vor Ort zu erzeugen. Ich habe also einiges versenken müssen (plus ein paar Beiträge, die sich darauf bezogen).

Es ist bedauerlich, dass einige das Thema nicht ernst nehmen und auch unbedingt erstmal die AMD vs. Nvidia Diskussion losbrechen müssen, ohne überhaupt auf den Kern des Themas einzugehen. Mit dem Consumer-Markt hat das alles recht wenig zu tun. Weiterhin mag man die Politik Chinas verurteilen, das ist hier aber nur begrenzt ein Beitrag zum Thema der News. Aber wenn man das diskutieren will und sogar den Bezug zum Thema findet, dann sollte man das sachlich und in einer angemessenen Ausdrucksweise tun. Und nicht ein paar aufgeschnappte Geschichten mit ein paar Beleidigungen anreichern und damit auf Beiträge antworten, die den technischen Aspekt behandeln.

Glücklicherweise gibt es auch genug Gegenbeispiele und ich hoffe das sich daran orientiert wird.
 
KAOZNAKE schrieb:
Ich finds einfach nur Wahnsinn, was da an Entwicklungsleistung dahinter steckt. Und noch krasser finde ich, das man ungefähr 10 Jahre später diese Leistung in einer Grafikkarte vorfindet.

Und Energie effizienter, so was ist natürlich keine Investition in die Zukunft bzw. keine Anlage für die Zukunft. Das Ding muss wohl rund um die Uhr laufen damit es sich rechnet.
Die Programme und müssen daher ja schon geschrieben sein, die diese Rechenleistung ausnutzt. Beeindruckend.
Vor zwanzig Jahren kam dann als Nebenprodukt u.a. Tetris oder Space Invader raus:evillol:
 
Wieso sollte der Hardware-Preißverfall bei Super-Computern anders sein als beim Homecomputer?

Natürlich hält ein Supercomputer nicht 10 Jahre lang.
 
Skynet ist ne Grafikkarte :D

Haudrauff schrieb:
Wieso sollte der Hardware-Preißverfall bei Super-Computern anders sein als beim Homecomputer?

Die einzelenen Komponenten haben sicher den Preisverfall aber das große Ganze kann man nicht nach der Summe der einzelnen Komponenten bewerten denke ich.
 
Das mit dem "sich rechnen" wurde auch schon durchgerechnet!
Nicht schlagen, wenn die Zahlen nicht ganz stimmen, ich glaub mich aber zu erinnern, dass es sich nicht lohnt Berechnungen anzufangen, die (voraussichtlich) länger als 20 Monate benötigen würden.
Wenn das der Fall wäre, wäre es besser das Teil erst 12 Monate später - mit dann aktueller Konfiguration - in Betrieb zu nehmen und wäre dennoch noch früher fertig mit dem "Rechnen".
 
Ultravore schrieb:
ich frage mich wie diese ganzen CPUs und Tesla Karten überhaupt sinnvoll zusammenarbeiten können. Ich schätze mal das sind alles immer Dual Sockel Mainboards mit jeweils einer Tesla Karte und 2 Xenon CPUs drauf, aber wie kommunizieren die dann alle miteinander??? Doch wohl nicht über LAN oder? ^^ Das wäre doch viel zu langsam. Die müssen doch irgendeine verrückte Sache entwickelt haben wie Crossfire oder SLI nur für ganze Mainbords oder so :D Würde das gerne mal auf nem Bild oder Video sehen wie die zusammenhängen.

Wieso kommst Du auf den komischen Gedanken dass man die GPU verbinden muesste?
Man macht ein Cluster mit GPUs nicht anders als eines ohne.
Man verbindet die Knoten, gaengig und kostenguenstig momentan Infiniband, ein geswitchter 40Gbit Link.
Ueber den macht man Message Passing, also expliziter Versand von Nachrichten von Anwendung zu Anwendung. Und die Anwendung kuemmert sich zum einen darum das auf der GPU gerechnet wird, mittels CUDA oder OpenCL, und zum anderen darum die Daten mit den anderen Rechner auszutauschen, mittels MPI.
 
Jetzt fängt Cyberwar an.

China und die USA lassen ihre besten Supercomputer gegeneinander antretten, im Schach :D

Oder vlt. doch in einer Simulation, z.B. Arma. Superpc gegen Superpc :D

hehe

4 megawatt ist ja krass. Hoffe nur, die setzen sowas auch sinnvoll ein und nicht für atom(bomben)tests -.-

in 10 jahren haben wir die leistung unter dem Schreibtisch^^ vlt
 
Ich glaube nicht, dass wir in 10 Jahren die Leistung eines heutigen Supercomputers unterm Tisch stehen haben.
Die Liste aus Wiki sagt dies jedoch. Allerdings sagt die Liste aus Wiki nicht, dass auch gleichtzeitig der Verbrauch nach unten geht. Also Heimcomputer mit 1 Megawatt z.B.?
Denn bisher wurde die Leistung immer hauptsächlich durch Struckturverkleinerung geschaft. Und allzuviel gibts jetzt nicht mehr zu verkleinern, da alles schon bald an den Grenzen stößt. Und Quantencomputer oder anderes ist ja erst mal nur in der Grundlagenforschung.
 
na mal schauen, ob die rechtzeitig fertig werden und was dann an tatsächlicher leistung erreicht wird.
schön, dass dies rechenmonster verhältnismässig stromsparend zu werke gehen wird.
grundsätzlich schade aber, dass solche high-end-maschinen häufig in den falschen instituten die falschen dinge berechnen (wer brauch z.b. atombombensims?).
 
Zurück
Oben