ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Felixxz21

Ich nutze als Basis die GTX285. Davon ausgehend passen die Werte recht gut imo. Deine Vergleich zwischen Radeon und Geforce funktioniert architekturbedingt nicht.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Felixxz21: der wert ist aber nicht höher, nur anders. er kann theoretisch in einzelfällen höher sein, ebenso kann er niedriger sein. das versuche ich doch die ganze zeit zu erklären: der wert schwankt irgendwo im bereich 0,54 bis 2,7 tflop. und irgendwo dazwischen wird auch die gtx380 liegen. rückschlüsse, welche in den spielen dann eine höhere flopzahl erzielen kann, sind schlicht unmöglich.

und was y33h@ meint ist, dass du gtx285 und gtx380 vergleichen sollst, um von den theoretischen werten rückschlüsse auf die leistung zu ziehen, weil die eine verwandte architektur haben. hier sind rückschlüsse möglich, zum cypress hingegen nicht.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Du schließt von den theoretischen Werten der GTX 380 gegenüber der GTX 285 über die fps Unterschiede zwischen GTX 285 und 5870 auf die fps Differenz von 5870 und Fermi. Somit versuchst du von den theoretischen Werten auf die praktischen fps zu kommen, was nicht funktioniert, egal welche Architektur. Deswegen gibts ja Benchmarks.

EDIT:
@Lübke
Aber ich vergleiche doch nur die Werte! Bei beiden nehme ich die max. Zahl (volle 5D und MUL). Ich vergleiche nur theoretische Maximalwerte. Wie das dann in Spielen aussieht ist eine Vermutung von mir, meiner Meinung nach hat die 5870 mehr FLOP. Bei den Fakten zähle ich nur werte auf.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixx

Vergiss es einfach, die ganze Vergleicherei zw. Nv und AMD über theoretische Werte wie Flopzahlen, Pixel- und Texelleistung, Speicherbandbreite bringt einfach nichts, ohne Vergleichswerte von Vorgängergenerationen gleicher Architektur zur Hand zu nehmen.
Dies geht hier aber nicht, da Fermi zwar imo keine komplett neue Architektur darstellt, die Änderungen in Organisation, Cachegröße, sowie die Fähigkeit FMAs statt Madds auszuführen einiges an der Effizienz ändern kann/wird. (Das muss nicht grundsätzlich positiv ausfallen, sollte aber)

Im Übrigen fällt das zusätzliche Mul bei Fermi komplett weg, weswegen wir "nur" mehr bei 2 Operationen pro Takt, namentlich 1 FMA (Mul+Add), wären.
Das mag beim ersten Blick schwer wiegen, ist aber wahrscheinlich absolut belanglos, da das zusätzliche Mul afaik kaum Bedeutung im Spielesektor hatte und im Endeffekt nur eine "Schönung" der Flopzahlen der GT200er darstellte. (Ebenso wie die Berechnung der Flopzahlen einer AMD mit den vollen 5 möglichen Berechnungen einer SPU)

Das bringt uns zu deiner Frage, wie die FLOPS ohne das zusätzlliche Mul berechnet werden.

Ganz einfach:
Takt (1400Mhz) x Operationen/Takt (2) x ALUs (448) = xxxx Flops

Aussagekraft tendiert gegen Null, was quantitative Betrachtung betrifft, qualitativ lassen sich Vermutungen anstellen.

Meine Vermutung hinsichtlich eines Fermis mit 512 Alus, etwa 1400 Mhz ALU-Takt zur HD5870 beläuft sich auf etwa den gleichen Vorsprung, den GTX280 zur HD4870/512MB hatte. Bloß diesmal mit 5-7 Monate Verspätung im Vergleich zum letzten "Duell". Dabei gehe ich davon aus, dass die "neue" Archtitektur im Spiele-Bereich keine signifikanten Vor- oder Nachteile bringt.

Meine Hoffnung ist, dass es mehr wird, nicht weil ich NV bevorzuge, sondern weil ich Grafikkarten kaufe, und dann möglichst schnelle, günstige und energiesparende.(als Kompromiss)


Gruß
Raubwanze
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

raubwanze schrieb:
Felixx

Vergiss es einfach, die ganze Vergleicherei zw. Nv und AMD über theoretische Werte wie Flopzahlen, Pixel- und Texelleistung, Speicherbandbreite bringt einfach nichts, ohne Vergleichswerte von Vorgängergenerationen gleicher Architektur zur Hand zu nehmen.
Dies geht hier aber nicht, da Fermi zwar imo keine komplett neue Architektur darstellt, die Änderungen in Organisation, Cachegröße, sowie die Fähigkeit FMAs statt Madds auszuführen einiges an der Effizienz ändern kann/wird. (Das muss nicht grundsätzlich positiv ausfallen, sollte aber)

Im Übrigen fällt das zusätzliche Mul bei Fermi komplett weg, weswegen wir "nur" mehr bei 2 Operationen pro Takt, namentlich 1 FMA (Mul+Add), wären.
Das mag beim ersten Blick schwer wiegen, ist aber wahrscheinlich absolut belanglos, da das zusätzliche Mul afaik kaum Bedeutung im Spielesektor hatte und im Endeffekt nur eine "Schönung" der Flopzahlen der GT200er darstellte. (Ebenso wie die Berechnung der Flopzahlen einer AMD mit den vollen 5 möglichen Berechnungen einer SPU)

Das bringt uns zu deiner Frage, wie die FLOPS ohne das zusätzlliche Mul berechnet werden.

Ganz einfach:
Takt (1400Mhz) x Operationen/Takt (2) x ALUs (448) = xxxx Flops

Aussagekraft tendiert gegen Null, was quantitative Betrachtung betrifft, qualitativ lassen sich Vermutungen anstellen.

Meine Vermutung hinsichtlich eines Fermis mit 512 Alus, etwa 1400 Mhz ALU-Takt zur HD5870 beläuft sich auf etwa den gleichen Vorsprung, den GTX280 zur HD4870/512MB hatte. Bloß diesmal mit 5-7 Monate Verspätung im Vergleich zum letzten "Duell". Dabei gehe ich davon aus, dass die "neue" Archtitektur im Spiele-Bereich keine signifikanten Vor- oder Nachteile bringt.

Meine Hoffnung ist, dass es mehr wird, nicht weil ich NV bevorzuge, sondern weil ich Grafikkarten kaufe, und dann möglichst schnelle, günstige und energiesparende.(als Kompromiss)


Gruß
Raubwanze


Nochmal: Ich weiß, dass theoretische Daten (die FLOPs) relativ wenig Aussagekraft haben, trotzdem ist es interessant ein paar Vermutungen anzustellen und die Daten gegenüberzustellen.

Noch eine Frage: Warum vergleichst du eine GTX 285 mit ner 512MB 4870? Ist das nicht ein bisschen "unfair"? Wenn dann gleiche Speichergröße.

Zu schnell können wir nur Vemutungen anstellen, doch günstig und energiesparend wirst du beim Fermi definitiv nicht finden.


EDIT:

Dann macht das MUL also die 1,5 aus?

Denn die Werte auf CB ergeben sich aus:

Takt x ALUs x 2 x 1,5 = FLOP/s

GTX 285

1476 MHz x 240 x 2 x1,5 = 1063 GFLOP/s

Bei ATis:

Takt x 160 x 5 x 2 = FLOP/s

4870

750 x 160 x 5 x 2 = 1200 GFLOP/s

Ist das so richtig?
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Kennst du den idle-Verbrauch? Nein. Dann sage nicht, "energiesparend wirst du beim Fermi definitiv nicht finden". Kennzeichne es mit einem "imo" als Vermutung, aber stelle es bitte nicht als Fakt dar.

Zu den FLOPS: Ja, MUL macht 1,5.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Verglichen hab ich eig. nichts, ich ziehe bloß die FPS-Werte der beiden stärksten Single-Gpu-Karten zu Rate, die zur Zeit des Releases der 4xxer-Serie existierten (GTX280, HD4870/512), um mit Hilfe der vermuteten/bestätigten theo. Werte (Flops, Texel/s, Pixel/s, Byte/s) der aktuellen Generation eine Aussage über deren Stärkeverhältnis zu machen.
Dabei bleib ich erstmal sehr nüchtern und schließe große architekturbedingte Steigerungen bei Fermi aus.
Erwähnt hab ich auch die zeitliche Verschiebung von 5-7 Monaten, die NV "verloren" hat, sollte sich ein ähnliches Stärkebild wie zum Releasezeitpunkt der HD4870/512 zwischen den beiden (Single-GPU)Top-Dogs ergeben.

(Im Übrigen ist kein Vergleich unfair (sinnlos können sie sein), lediglich die Schlüsse, die man daraus zieht und verkündet, können unfair oder noch sinnloser sein.)

NV braucht eine sehr starke Single-GPU und wir brauchen auch ein starkes NV.
Nach meiner Auffassung hat AMD mit ihren Karten seit HD3xxx nicht nur für den Kunden viel fürs Geld geboten, sondern profitiert vor allem selbst durch diese kompakten Designs. Mit der 5xxxer-reihe konnte man sogar Mainstream und Performance-Maske (Juniper und Juniper x2=cypress) gleichzeitig entwickeln, und bringt sehr zeitnah gute bis sehr gute Grafikchips mit hoher /mm²-Leistung über ein großes Leistungsspektrum hinweg, plus Mobil-Ableger.
Zusätzlich hat man bei der 5xxxer ein gutes feature-Set mit Eyefinity, SGSSAA und Dx11, gute Verbrauchswerte, optimale Bildqualtität (SGSSAA) und eine gute Rohleistung.
Eine verdammt gute Leistung von AMD, meines Erachtens.
Ein hoch überlegener Fermi mag imo auch erstmal nicht mehr als der eine Tropfen auf dem heißen Stein sein.
Viel wird davon abhängen, ob und wie schnell es NV schafft die neue Architektur auch in Form von kleinen, wettbewerbsfähigen Ablegern für Mainstream zu bringen. Ein ähnliches -scharf ausgedrückt- Fiasko wie mit den Mainstream-Ablegern der GT200-serie (Umbenennung von g92b-Karten, gt212/gt214 nicht funktionstüchtig/wettbewerbsfähig) sollten sie sich nicht nochmal erlauben.



Nochmal zu den Flops:

Nein, rein rechnerisch läufts zwar aufs Gleiche hinaus, erklärt aber nicht den Hintergrund der Rechnung.

(Ps: Bitte nicht böse sein, wenns dir zu ausführlich ist/bzw. du die Hälfte oder das Ganze schon weisst)

Flops = Floating Point Operations per second

Floating Point Ops engt sich, wenn es um Grakas und ihre ALUs (Arithmetic Logical Unit, sprich der "FLOP-Ausführer, Rechner" ) geht, weitestgehend auf Addition und Multiplikation ein. (die Integerfähigkeit einiger spez. ALUs lassen wir beiseite)

Wir haben also Takt, Anzahl der ALUs, und Anzahl der Operationen pro Takt, die eine solche ALU ausführen kann.

Bei GT200 konnte eine ALU theoretisch pro Takt ein Madd, das ist ein Multiplikation und eine anschließende Addition, und noch eine zusätzliche Multiplikation ausführen.
das entspricht 3 Operationen pro Takt.

Deshalb ->
GTX285:
1476Mhz (Takt) x 240 (ALUs) x 3 (Mul;Add;Mul)

Die Alus der HD beherrschen dagegen "lediglich" ein Madd pro Takt, also 2 Operationen.

deshalb ->
HD5870:
850Mhz x 320 (ShaderProzessoren) x 5 (5 "Alus" pro Shaderprozessor) x 2 (Mul;Add)

Bei Fermi wird es für alle Alus ein FMA statt Madd pro takt sein, das zusätzliche Mul der GT200-serie fällt weg. Ein FMA ist ebenfalls wie Madd eine Multiplikation gefolgt von einer Addition, also 2 Operationen pro Takt.

deshalb ->
Fermi(GTX380):
1400Mhz x 512 (448) x 2 (Mul;Add)

Gruß
Raubwanze

PS: FMA kann auch AMD/HD (und auch die GT200), jedoch werden bei den HDs für ein FMA in 64bit alle 5 "ALUs" eines Shaderprozessors benötigt, NV kann durch ihre Architektur diesbezüglich mit 2 Fermi- ALus ein 64bit-FMA ausführen.
FMA ist auf Grund der höheren Genauigkeit durch einmaliges Runden des Endergebnisses afaik Pflicht für Double-Precision-Operations, sprich 64bit-Berechnungen.

PS2:
"Günstig und energiesparend wirst du bei fermi nicht finden"

Deswegen schrieb ich in Klammern "als Kompromiss", denn alle 3 aufgezählten Eigenschaften "behindern" sich gegenseitig.
Und wahrscheinlich wird das NV nicht bieten, was auch an "ihrer" aehm... Eitelkeit liegen mag, immer den größten haben zu wollen. (Wenn man Unternehmen so personifizieren möchte)
Trotzdem bleibt vlt. der Kompromiss der 3 Eigenschaften auch bei NV interessant und das hoffe ich auch.
 
Zuletzt bearbeitet: (Weitestgehend Rechtschreibung und einige Formulierungen Forumsgerecht entschärft)
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

"the hottest ATI Radeon HD 5000 series" - das kann nur die HD5970 sein. Das sind dann immer noch unter 90° - kein Grund zur Panik.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

die frage ist dann noch bei welchem takt...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Der Coolermaster-Typ kennt sicherlich Massen an Fermi-Benches :lol:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die Aussage kam wohl aber von NV die müsstens schon wissen:)
He also whispers that the most powerful Fermi also a Radeon HD 5870 but not 5970
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das "il" bezieht sich auf den CM-Ingenieur, von jemand anderem ist in dem unteren Absatz nicht die Rede :rolleyes: Ich spreche gut genug französisch ...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Mal sehen die anzeigen verdichten sich das der Fermi doch wohl eher das ist als was er konzipiert wurde GGPU.
Eben keine Gamer GPU hot loud hungry nix wirklich für Gamer.:D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Du kannst das Spamen ebenso wenig lassen wie falsche Aussage, hmmm? :rolleyes: Ich erinnere dich an deinen Catalyst-Bullshit.

Tu uns doch also den Gefallen und lies News/Quellen richtig und schreibe keinen Unfug. Danke.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das musst grade Du sagen der als wandelnde NV Intel werbe Litfasäule durch die Foren geistert.
Schau mal nach in Google bei wie vielen WIN 7 64 bit usern der 9.12 komische benches zeigt.:D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich kennzeichne meine Vermutungen als solche und lese keinen Bullshit aus News raus, so wie du eben (mal wieder). Ansonsten nenne ich Fakten.

Die Aussage stammt von dem CM-Typ und nicht von NV!

Mir egal bei wie vielen der 9.12 "komische benches zeigt" (was auch immer du damit meinst). Du hast unreflektiert BS gemessen (HW-Tessellation mit 9.11 unter Vista x32 gegen ohne HW-Tessellation mit 9.12 unter Win7 x64) und dann bewusst quer durch alle Foren gespamt, wie geil der 9.12 unter DX11 denn sei. Und nachdem auch dem letzten klar war, dass das Bullshit ist, kamst du auf einmal an und hast behauptet, dir wäre von Anfang an klar gewesen, dass da etwas nicht stimmt :rolleyes:

Aber nun genug OT. Ich weiß, was von deinen Posts zu halten ist, das reicht mir.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Immer diese Fantasy-Storys von unabhängigen möchtegern Fachmänner für visuelle Aufklärung die genauso im Trüben fischen wie der Rest der Welt und dies dann als unumstößliche Wahrheit präsentieren wollen. :rolleyes:

Ja klar 300 Watt was für ein quark ! :lol:
Wirklich Jeder der sich ein bisschen mit der Materie auskennt langt sich bei solchen "Berichten" an den Kopf...
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich könnte wetten, die 300W rühren vom 6+8pin-Design her. Mit dem wahren Verbrauch (geschweige denn TDP) hat das mal gar nix zu tun...

Motkachler schrieb:
Das musst grade Du sagen der als wandelnde NV Intel werbe Litfasäule durch die Foren geistert.
Schau mal nach in Google bei wie vielen WIN 7 64 bit usern der 9.12 komische benches zeigt.:D
Unter anderem disqualifiziert dich dein Avatar von einer fachbegründeten Diskussion. y33H@ ist wohl einer der wenigen in diesem Forum, die wirklich etwas von der Materie verstehen, wovon sie reden (als PCGH-Tester); im Vergleich zu gewissen anderen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben