News Nvidia zeigt Tesla-„Fermi“-Grafikkarten

@ContractSlayer:

Nun. Der "Normalverbraucher" hat auch kein Bedürfnis eine solche Karte zu besitzen. Für Privatpersonen ist's schon ne teure Investition...
 
PCGames Hardware schrieb:
...Nach derzeitigem Kenntnisstand entsprächen die Werte 1.015 bis 1.230 MHz Shader-Takt. Sollten diese niedrigen Takte auch in die Geforce-Reihe Fermi-basierter Grafikkarten durchschlagen, hätte Nvidia wohl ein ernstes Problem...

Also irgendwie versteh ich das gerade nicht? Wäre der Takt nicht ziemlich hoch. :freak:
 
Neo_Xsendra schrieb:
und zu dem "ati hat 540 gflops" ja haben sie, allerdings haben sie wichtige features in dem bereich nicht.
printf support? Wow, ich bin begeistert. :rolleyes:

Lübke schrieb:
@HOT: ich denke du überschätzt die vorteile der vec5 architektur. als maaßstab haste doch schon die gtx285 (scalar) zur 5850 (vec5). nvidias architektur ist zwar größer und teurer herzustellen, allerdings ist die effiziens auch höher
Von welcher Effizienz sprichst du? Ich sehe ehrlich gesagt nichts, was eine GTX 285 effizienter kann als eine HD 5850.

Lübke schrieb:
weshalb eine 4890 mit ihren theoretischen 800 shadern eine gtx285 mit "nur" 240 shadern selbst bei höherem takt nicht gefährden kann.
Die Taktrate der Shader ist aber bei nVidia höher und nicht bei ATI.

Lübke schrieb:
es können per takt bei vec 5 nur 5 gleiche berechnungen ausgeführt werden.
Nein.

Lübke schrieb:
aber wie willst du ein programm schreiben, dass nur aus gleichartigen, gleich langen berchnungen besteht?
Schon mal etwas von DLP (Data Level Parallelism) gehört?

dereinzug schrieb:
bei den aktuell möglichen Direktvergleichen (Folding@Home-Projekt und DirectCompute-Benchmark) schneidet eine HD5870 deutlich langsamer als eine GTX 280 ab.
F@H ist sicherlich nicht repräsentativ. Der Code für ATI basiert meines Wissens auf Brook und ist relativ alt. Damals war die HD 3000 Serie noch aktuell. Der DirectCompute-Benchmark ist dagegen noch relativ neu und noch lange nicht ausgereift.


@topic
Ich finde die Fermi Daten doch ziemlich enttäuschend. Weniger theoretische Rechenleistung als erwartet, leider eine hohe Leistungsaufnahme wie befürchtet und "Features", die in der Praxis nichts wert sind, schon gar nicht für den Consumer Markt, oder die Konkurrenz genauso zu bieten hat. Und was Supercomputer betrifft, während nVidia gerade mal erste Fermi Karten präsentieren will, stellt AMD auf der SC09 bereits einen HD 5xxx basierten Supercomputer vor. Der momentan einzige GPU bestückte Supercomputer in den Top 10 basiert ebenfalls auf Radeons.
Übrigens, bevor hier alle die HD 5870 als Referenz heranziehen, AMD scheint bis dahin wohl eine HD 5890 und HD 59xx Karten im Portfolio zu haben. Ich sehe nVidias Felle leider mehr und mehr davonschwimmen. Erst recht, da ATI scheinbar nicht mal ein Jahr später eine komplett neue Architektur präsentieren will.
 
Zuletzt bearbeitet:
zur dp-precission-performance der nv- und ati-karten kann man immer nur wieder Gipsel ausm 3dcenter-forum quoten:

Gipsel schrieb:
Coda schrieb:
Wo widerspricht das mir? MADD und FMA ist doch effektiv das gleiche.
Nun, der Unterschied ist nur eine weitere Feinheit :rolleyes::

Nun mal ehrlich, Du sagst das DP von RV670/RV770 war unbrauchbar und jetzt negierst Du die Änderungen, dies es in Deinen Augen brauchbar machen müßten? Eine stringente Argumentation ist das nicht.

Und Apropos brauchbar. Mein DP-Code läuft schon auf einer HD3850 schneller als auf einer GTX285 und liefert übrigens exakt die gleichen Ergebnisse wie eine CPU. Und ich benutze auch transzendente Funktionen. Erste Tests auf einer (im Handel gekauften) HD5870 zeigen übrigens einen Geschwindigkeitsvorsprung von ziemlich genau Faktor 8,5 gegenüber der CUDA-Version auf einer GTX285 (an der ein nvidia Ingeneur mitgewirkt hat, während die ATI-Variante nur auf meinem Mist gewachsen ist). Also Fermi legt besser ordentlich was drauf. Falls ATI den OpenCL-Support gescheit hinbekommen (ausdrücklich falls), ist es sonst mit der Überlegenheit in dem Bereich für Fermi nämlich nicht weit her.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7571220&postcount=3391
 
Zuletzt bearbeitet:
Schöne Nachrichten. Ich freu mich schon auf die Fermi-Gamer Karten.
Wird aber leider noch dauern.
Die Daten sind, finde ich nicht enttäuschend. Theoretische Leistung ist nicht alles.
@ Gruffi die Karten sind nicht für den Comsumer Markt. Also nichts schlecht reden bitte. Von wegen unbrauchbare Features.:freak:
 
Lübke schrieb:
nvidias architektur ist zwar größer und teurer herzustellen, allerdings ist die effiziens auch höher, weshalb eine 4890 mit ihren theoretischen 800 shadern eine gtx285 mit "nur" 240 shadern selbst bei höherem takt nicht gefährden kann.
Die Shaderdomäne der 285 läuft mit dem 2,3 Fachen Takt des restlichen Chips. Taktnormalisiert ergibt das ~550 skalare Einheiten.
Daraus kann man die Effizienz der Architektur aber nicht wirklich ablesen, da Nvidia wie immer einen massiven Vorteil bei Texelfüllrate und Speicherbandbreite hat und Cachegrößen einen großen Einfluss auf die Auslastung haben.
Wo hat eine Vec5-Architektur überhaupt Nachteile?
Die 5. Dimension wird für Spezialausgaben benötigt, etwa die Perspektivenkorrektur und ist deshalb oft ohnehin belegt. Die meisten Operationen sind 3- oder 4-dimensional. Ist sie 1-dimensional, kann die Hardware alle Shader einzeln belegen, sofern die Operationen unabhängig sind. Wirklich schlimm ist nur der 2-dimensionale Fall, da hier die Auslastung auf 40% sinkt. Dazu fällt mir allerdings grade kein Beispiel ein ;) das meiste ist einfach 3- oder 4D.
Der Nachteil der skalaren Architektur liegt auf der Hand, da jede der Einheiten einen Wust an Verwaltung hinter sich her zieht.
 
Zuletzt bearbeitet:
@gruffi

nur das tesla karten noch nie "consumer" karten waren (genies an der arbeit *kopfschüttel*)

diese akrte hat schon ihren nutzen und ihre berechtigung. die frage mit der "gamer variante" bleibt halt offen ... und es steht zum vermuten das zu atis neuer architektur ein refresh von nv da sein wird (wir kennen doch alle das spiel jetzt lange genug)
 
ich würde sagen abwarten was leistung betrifft.
Vielleicht ist der neue Fermi eine neuentwicklung, wo er mehr Arbeit pro Takt schafft.
Kennt man ja vom Pentium M im vergleich zu Pentium 4.
 
Aktuell habe ich den Eindruck, als ob NVidia ATI das Feld der Spiele-Grafikchips ersteinmal für eine gewisse Zeit lang überlassen wird.

Allerdings braucht NVidia auch sicherlich nur einen Bruchteil an Grafikkarten verkaufen um profitabel zu arbeiten. Bei 3000 Dollar Verkaufspreis und ähnlichen Herstellkosten wie bei der 5870, tun sich da gigantische Margen auf.

Da verdienen die sich ja schon dum und dusselig, wenn die 10% vom Supercomputermarkt bekommen...
 
Damit hat NVidia den Kampf um den Gamer-Markt 2010 bis hinein nach 2011 VERLOREN. Wie schlecht kann man eigentlich sein?

Obwohl ich immer mehr ein NVidia Anhänger war, freut mich das ungemein für AMD, die mit ihrer soliden nachhaltigen Arbeit das Rennen in den nächsten 18-24 Monaten machen werden.

Das kostet NVidia Milliarden. Schlechtes Management.
 
@hurga_gonzales

ja wie kann man nur ne gpgpukarte vorstellen? *kopfschüttel* die ARMEN GAMER wissen ja garnicht was sie damit sollen!!!!

bitte ließ dir doch nächstes mal den GANZEN ARTIKEL und zumindest EINEN TEIL DER ANTWORTEN durch ...
 
@Schaffe89
@Neo_Xsendra
Ich habe zu Tesla Karten gar nichts gesagt. Bitte genau lesen! ;) Ich sprach von Fermi, auf dem Karten für den Consumer Markt genauso basieren werden.
 
NVIDIA gibt weitere Informationen zu Fermi bekannt"

"...Da die Taktraten somit in etwa auf dem Niveau der Vorgängerversion liegen dürfte Fermi auch im Desktop-Segment deutlich zulegen und bis zu doppelt so schnell sein, wie gleichgetaktete GT200-Modelle. Pi mal Daumen ergibt sich somit eine Performance auf Augenhöhe der GeForce GTX 295..."

...und bis sie verfügbar sein wird, ist es März...*zzzzZZZZ*
 
@ gruffi
Da hast du in der Tat recht. Wobei man nicht weiß was da noch kommen wird. 2,5Teraflops geteilt durch 4 ist ziemlich wenig.^^
 
LuXon schrieb:
@DVP
Der Shadertakt war schon immer so hoch, bzw. noch höher (rauf zu 1.400)
das was du meinst ist der chip-takt

Screemer schrieb:
die betonung in dem zitat liegt auf "shader-takt" meine 8800gts hat auch 1850MHz shadertakt :D

Danke Jungs!
War ein harter Tag und da kommt man schon mal etwas durcheinander ;-)
 
Pickebuh schrieb:
Was mir besonders auffällt ist die Shaderleistung.

Während man bei der HD5870 durch die Verdopplung der Shader(1600) eine Verdopplung der Shaderleistung erzielt und durch die Takterhöhung dann auf einen Wert von ca. 2,7 TFlops kommt, repräsentative die Shaderleistung einer HD4890 (1,350 TFLOP) verdoppelt-.
So kommt man beim Fermi, der ebenfalls seine Shaderanzahl mehr als verdoppelt, nur auf 1/3 mehr Leistung.

Das kann doch irgendwie nicht sein oder ?

Wie schon in meinem Vor-Vorpost erwähnt, unterscheiden sich beide Architekturen (Fermi, g80/200) unter anderem in der Anzahl an Ops, die pro Takt und ALU ausgeführt werden können. (g200 3Ops, Fermi 2Ops)

Gehen wir von 1300Mhz Shadertakt aus, so berechnet sich die theoretische SP-Leistung folgenderweise:

g200:
240 (Alus) x 1300 Mhz x 3 Ops (MADD+Mul) = 936 Gflops

fermi:
512 (Alus) x 1300 Mhz x 2 Ops (z.B. MADD) = 1330 Gflops

Man muss natürlich dabei bedenken, dass bei der g200-Architektur bei Spielen lediglich das MADD eine Bedeutung hat, das zusätzliche Mul nicht.

Insofern berechnet sich die theoretische MADD-SP-Leistung einer g200 wiefolgt:

g200(MADD):
240 (Alus) x 1300Mhz x 2 Ops (MADD) = 624 Gflops

als, sagen wir mal, theoretische Spieleleistung der Shader eines g200.

Hinzu kommt der im Gegensatz zum g200 prognostizierte niedrigere Shadertakt der Teslafermi.

Mit diesem Hintergrund lesen sich die theoretischen Flopzahlen und deren Steigerung ganz anders, und natürlich kann das sein.



Gruß
Raubwanze
 
Zuletzt bearbeitet:
Zurück
Oben