News Nvidia zeigt Tesla-„Fermi“-Grafikkarten

LuXon schrieb:
Allerdings kann man auch nicht die Architektur verlgeichen.
Ati hatte ja ein vielfaches an SP-Leistung, schlägt aber nichtmal die GTX285, die viel weniger hatte (ich gehe hier von der 4870 aus).
Natürlich ist das Schweigen verdächtig. Man kann es aber auch gerade anders interpretieren.

Bitte weise micht zurecht, wenn ich mit dem Zeugs hier falsch liege, bin mir da nicht mehr so ganz sicher, da es doch schon einige Zeit zurückliegt, in der ich mich genauer mit Graka's befasst habe.

Nicht ganz....
die GTX285 hat ca. 1060GFlops, die HD 4870 1200GFlops. So Gewaltig sind die Unterschiede also bei der Shaderleistung nicht.
Anders schaut es hingegen bei der Renderleistung aus:
HD 4870: 12GPixel/s + 30GTexel/s
GTX 285: ca. 21GPixel/s + ca. 52GTexel/s

Woher die Mehrleistung kommt dürfte da wohl klar sein
 
Habe das ganze mal durchgerechnet(selbstverständlich nur alles Spekulation und wir wissen nicht wirklich genug um hier irgendwelche Schlüsse zu ziehen, aber es macht unglaublich Spaß...):

Gehen wir davon aus dass die 285Gtx zur Ati 4870 ca 30% Vorsprung hatte.

Die Leistung in TFlops/s beträgt ungefähr: Nv: 1,07 zu ATI: 1,20 (alles in SP, was in Spielen wohl ausschlaggebend sein dürfte)

So ergibt sich für mich, dass eine theoretische ATI Grafikkarte ungefähr 1,54 TFlops haben müsste um mit der 285er leistungstechnisch gleichzuziehen, was im Vergleich zur 285GTX ungefähr 44% mehr sind.


Wenn wir die SP-Daten von Cypress und Fermi vergleichen ergibt sich:

2,72 zu 1,33 (letzte mir bekannte Zahl)

Das sind 104% mehr bei ATI.

Wenn ich diese Zahl so sehe stellen sich mir einige Fragen:

Fermi ist eine neue Architektur, aber inwiefern kann man diesen Rückstand in Spielen kompensieren? Was hat man sich da einfallen lassen?

Falls die "Pro-TFlop"-Leistung bei Nvidia nicht in ungeahnten Ausmaßen zugenommen hat dürfte der Fermi in Spielen nicht der geglaubte Überflieger sein.
Selbstverständlich ist mir klar dass diese Berechnung nicht stimmen mag, schließlich hat die 5870 nicht die doppelte Fps-Leistung einer ATI4870 (zumindest nicht immer, habe wohl aber auch Benches gesehen wo durchaus eine 95% Leistungssteigerung zu verbuchen war, keine Quellen zur Hand, vll. hat jemand anderes diese noch irgendwo aufbewahrt), aber es ist doch fraglich, wie eine SP-Rechenleistung von 1,33 TFlops/Sek beim Fermi zustande kommen kann, bzw. falls diese zutrifft, in welcher Region sich die Spieleleistung bewegt.

Falls ich mich verrechnet haben sollte bitte korrigieren :)

Edit: Ups hab anstatt TFlops "GFlops" angegeben :)
 
Zuletzt bearbeitet:
Wie schon in meinem Vorpost indirekt erwähnt ist die rein theoretische SP-Leistung in Games
zwischen Fermi und G200 nicht mehr so ohne weiteres vergleichbar. (g200 3ops pro Takt, davon spielt 1Op in Games praktisch keine Rolle, Fermi 2Ops pro Takt)
Am besten ziehst du für einen Vergleich untereinander 1/3 der SP-Leistung der g200er ab, um einigermassen praktikabele Vorhersagen zu treffen, was die FPS-Leistung betrifft.

Gruß
Raubwanze
 
Hallo,

bei den aktuell möglichen Direktvergleichen (Folding@Home-Projekt und DirectCompute-Benchmark) schneidet eine HD5870 deutlich langsamer als eine GTX 280 ab.
Allerdings nutzt Folding@Home momentan noch die jeweilige Hersteller-spezifische Schnittstelle (Stream bzw. Cuda), was die Vergleichbarkeit imho wieder etwas erschwert.
Und beim DirectCompute-Benchmark (Klick handelt es sich um ein Tool, das noch im Beta oder Alpha-Stadium ist.
Beide Programme zeigen aber die gleiche Tendenz: die HD 5870 ist nur halb so schnell wie die GTX 280. Kann das Zufall sein?
Für GPGPU-Anwendungen scheint ATI imho noch einige Arbeit in den Treiber stecken zu müssen (was sie hoffentlich noch hinbekommen, bevor ich keine HD 5870 mehr habe).

ciao Tom

P.S. Die Hochrechnung der fps-Leistung anhand der Shaderleistung hat imho nur in Spielen Sinn, die auch eher Shader-lastig sind.
 
1.) Zur Performance in Spielen kann man erst etwas sagen, wenn auch wirklich Spiele getestet wurden. Alles andere ist nur Wahrsagerei. Das hat man bei der X1800XT und X1900XT gesehen, dass die auf einmal 2-3 mal so schnell war in Folding@Home, aber in Spielen nur ca. 5-10% schneller.

2.) Bevor Nvidia auch nur ansatzweise davon träumen könnte irgendetwas ins Serversegment zu liefern, auch wenn es nur wisschenschaftliche Supercomputer sind, müssen die einmal die Qualität ihrer Hardware verbessern. Wenn man bedenkt, welche Ausfallsquoten die in letzter Zeit produziert haben und wie selten doch eine CPU eingeht (ohne Übertakten versteht sich), dann kann man sich ausrechnen, was da los ist, wenn die da 1000 Stück in einem Server haben und dann ständig eine Karte davon hin ist oder noch schlimmer falsche Ergebnisse liefert.
 
Erinnert sich noch jemand an die Nvidia-Demo zur Wasseroberflächenberechnung? Diese Demo wurde auf einer ATI 5870 abgespielt und war deutlich schneller als eine 285 GTX, weswegen ich nicht unbedingt behaupten würde die ATI wäre in diesen Fällen der 285 GTX unterlegen, vor allem war es eine" Nvidia spezifische" Demo. Inwiefern die ATI 5870 die Berechnungen korrekt und vollständig durchgeführt hat vermag ich aber nicht zu beurteilen. Nur wie schon erwähnt lässt sich das alles schwer vergleichen. OpenCL dürfte hier denke ich mehr Aufschluss geben. Wenn man sich die Mühe macht die 5D Shader der ATIs im möglichen Maße auszulasten könnten die ATIs durchaus besser abschneiden als gedacht.
 
Was is das denn bitte fürn Design!? Das sieht ja mal derbe hässlich aus, sorry, das muss ich mal sagen. Also da fand ich den Fake mit der Spiegeloberfläche sehr geil. Zudem dieses grüne PCB.....ne das sieht mir voll nach Office-Like aus nich nach High Tech Gaming. Wenn ich mir die GT200 Reihe anschaue die hat nen tollen Kühlkörper gehabt....ein Glück hab ich ne GTX 285.....hoffentlich kommt die GT400 Reihe mit nem tollen Design wenn ich da umsteige :D


Nunja bleibt zu hoffen wie die Leistung ist. Bin gespannt auf paar Tests :D
 
Gnome schrieb:
Zudem dieses grüne PCB.....ne das sieht mir voll nach Office-Like aus nich nach High Tech Gaming.

Tja und jetzt darfst du die News nochmal lesen und dann weißt du auch, ob das eine Karte für Spiele sein soll oder nicht!
 
Ich würde im Titel eher folgendes schreiben:

Nvidia zeigt Tesla-Fermi-"Grafikkarten"

Die Aussage, dass nun sogar Monitoranschlüsse drauf sind zeigt das doch deutlich ;-)
 
Was mir besonders auffällt ist die Shaderleistung.

Während man bei der HD5870 durch die Verdopplung der Shader(1600) eine Verdopplung der Shaderleistung erzielt und durch die Takterhöhung dann auf einen Wert von ca. 2,7 TFlops kommt, repräsentative die Shaderleistung einer HD4890 (1,350 TFLOP) verdoppelt-.
So kommt man beim Fermi, der ebenfalls seine Shaderanzahl mehr als verdoppelt, nur auf 1/3 mehr Leistung.

Das kann doch irgendwie nicht sein oder ?

Das Problem dabei liegt wohl darin das man hier Äpfel mit Birnen vergleicht !
Bis jetzt sind alle Daten des Fermi auf die GPGPU-Karte bezogen während man von der HD5870 von einer reinen Gamer-Karte ausgeht.
Das sich da die Shaderleistung nicht so einfach übertragen lässt.
 
Zuletzt bearbeitet:
Es wurde ja noch nichts über die Taktraten der Shader genannt. Also noch eine Unbekannte in Bezug auf TFlops/s :)
 
naja immerhin hat sie ordentlich Speicher bekommen, dass bemängeln ja einige an der HD5870.
Dennoch muss man sehen diese Fermi ist rein für GPU-Computing, nicht zum spielen und preislich liegt sie auch ganz woanders. Es heißt wohl abwarten was NV für den Comsumer bringt...
 
@hookerio:

FLOP = Floating Point Operations Per Second - Flops/s ist nicht gebräuchlich ;)
 
hookerio schrieb:
Es wurde ja noch nichts über die Taktraten der Shader genannt. Also noch eine Unbekannte in Bezug auf TFlops/s :)

Laut Heise
http://www.heise.de/newsticker/meldung/SC09-Tesla-Rechenkarten-mit-Fermi-Chips-860474.html schrieb:
Bei Single-Precision-Berechnungen erreichen die Karten die doppelte Leistung, etwa 1260 GFlops bei einer Taktfrequenz der 512 Rechenkerne von 1230 MHz

Der Takt wurde also schon berücksichtigt. Aber dennoch dürfen wir sicher Gespannt sein bis die erste Ferni Geforce kommen wird.
 
Frazier schrieb:
Gab ja mal Gerüchte über 512 Shadereinheiten resp. 3 Mrd Transistoren bei den neuen Fermi-Karten. Dazu noch bis zu 6GB GDDR5 RAM mit 384bit Speicherinterface. So eine Karte hätte die doppelte 3D-Leistung einer GTX 285 und wäre unglaublich teuer :rolleyes:

Aber wie gesagt, sind bis jetzt nur Gerüchte :p btt

Das ist falsch, Nvidia bestätigt die Daten selbst im Fermi Whitepaper

Fermi Whitepaper.pdf

Man beachte die Summary Tabelle auf Seite 11:



Was jedoch gar nicht gefällt und was hier in der News nicht erwähnt wird ist der is der Zeitraum Mai 2010 für die Teslakarten. :(


Heise.de-Tesla-Rechenkarten mit Fermi-Chips

Gegenüber heise online erklärte Nvidia-Mitarbeiter Andrew Humber, dass die Karten, die nun erstmals auch einen DVI-Ausgang besitzen, nicht vor Mai 2010 verfügbar sein werden.

Wenn ich mir die Preise für die Teslas anschaue und man die schlechte Ausbeute bei TSMCs 40nm Prozess berücksichtigt dann würde mich doch stark wundern, wenn sie die ersten Chips für Geforcekarten statt für Teslakarten verwenden, da Nvidia bei den Teslas deutlich mehr Umsatz/Gewinn machen könnte.
 
@ nille02

Die Taktrate ist allerdings mehr als verwunderlich hoch.
 
Der Takt wurde also schon berücksichtigt. Aber dennoch dürfen wir sicher Gespannt sein bis die erste Ferni Geforce kommen wird.

Hmm interessant habe ich noch gar nicht mitbekommen. Erstaunt mich dann doch dass bei dieser Frequenz dann "nur" ca. 1,3 TFlops ;) erreicht werden.
 
Zurück
Oben