Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
So richtig will sich Nvidias GF100 auf der Computermesse CeBIT nicht zeigen. Zwar gibt es bei einigen Partnern, darunter zum Beispiel Gigabyte und Zotac, entsprechende Showsysteme, allerdings läuft dort nur eine Techdemo. Bilder von den Karten dürfen wir zudem keine machen.
Sind 4 Lüfter davor (Siehe Bild 4)
Wer sich über die fehlenden Anschlüsse wundert:
Das sind Sondermodelle, die nur in solchen PCs eingebaut werden ( sie werden zur Forschung benutzt und auf denen Läuft bestimmt keine Grafikanwendung, außerdem: welcher Forscher zockt bitteschön am Arbeitsplatz?)
Nun zur News:
"Das System an sich, basierend auf zwei Xeon-5500-Prozessoren von Intel, sei zwar bereits fertig gestellt, jedoch wartet man derzeit noch auf die Fermi-GPUs."
ja wie jetzt?
Auf dem Bild sieht man doch klar mehrere Grafikkarten, deren Kühler auf Fermi hindeuten.
Heißt das jetzt, dass dort noch garkeine Fermi-Chips verbaut sind oder dass das System hier ein Prototyp ist (sprich ein fertiges System) und nur noch keine Chips für die Massenmontage verfügbar sind?
kann ich bestätigen... hab zwar keines Fermies aber 2 x GTX260² übereinander unter drunter noch 2 weitere Karten. Wird trotz eingiger Lüfter im Gehäuse ganz warm und was rausgepustet wird ist auch angenehm warm
Die Rechenperformance von dieser Kiste dürfte aber mal echt derbe sein (allein wenn man nur mal 4 x GTX285 reinpackt und 2 x Xeon 55xx Quad)
Das mit der Formulierung raff ich auch nicht so ganz "...jedoch wartet man derzeit noch auf die Fermi-GPUs."
Wie schließt man an so ne Kiste dann eigentlich nen Monitor an? Onboard-Grafik oder dann nur per Remote?
Am witzigsten finde ich ja den Hinweis, dass die Fermi Karten keinen DVI Ausgang haben...
Sofern ich das letzte Bild richtig deute haben diese Versionen von Fermi ÜBERHAUPT KEINEN AUSGANG weder DVI, noch HDMI oder nen Display Port.
Wozu sollen die auch nen Ausgang haben? Die sind zur Berechnung da und nicht zur Bilddarstellung. Ein Chip auf dem Mainboard wird für die Bildausgabe zuständig sein.
das is weder ein spielerechner noch sind das grafikkarten um 3d games darzustellen!
is doch wurst wie warm oder laut die kiste ist.
die wird nie dierekt an nem arbeitsplatz stehen geschweige denn in nem nichtklimatisiertem raum.
einfach nur ne menge rechenpower auf kleinem raum.
aber warum noch die teuren cpu's? die 4 karten schlagen die cpu's in der leistung um längen.
und wenn ich was flexibles will dann doch ohne die karten. oder kann man die rein technisch auch deaktivieren?
Sehe ich das richtig? 2x 6-Pin für Strom? Macht dann glaube max. 225W (bzw. mindestens 150W). Hat Supermirco denn irgendwie durchblicken lassen ob es sich um die volle Ausbaustufe (quasi die GTX480) des Fermi handelt?
/edit: alffrommars: hast recht, 6+8. Tjoar... dann wollen wir mal hoffen dass es der 480er ist, sonst stehen die Chancen für einen <200W-Verbrauch für den 470er schon ziemlich schlecht
@ AndrewPoison
Ich dachte, dass die stärkste Tesla bisher auch niedriger getaktet war als das High End Desktop GraKa Pendant. Finde aber gerade keine Quelle dazu.
ich frag mich eher ob die bei fermi endlich das runden von floats richtig machen und double precission richtig funzt. das machen bisher leider nur die atis richtig. was haben die physiker und meteorologen hier gestaunt als meine kollegen hier von algorithmengineering ihnen gezeigt haben wie falsch teils nvidia karten runden.
alles tricks zur gunsten der 3d-performance. ob das bei fermi endlich anders ist?
edit: @alffrommars: die flotten cpus sind verdammt wichtig, ebenso eni flotter hauptspeicher. die werden gebraucht zur schnellen verteilung der jobs auf die gpus und was sonst noch so an sequentiellen kram anfällt.
Der Verwaltungsaufwand für die GPUs dürfte nicht unerheblich sein. Ich will man, glaube ich, relativ flexible Lösungen anbieten, damit man nicht für jede "Kleinigkeit" auf GPGPU zurückgreifen muss.