ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Crystal schrieb:
... Also ist es nun sowas wie G80 umbenannt ->G92>G92b>200>300...
Aha, ein G200 ist also ein umbenannter G80 - deswegen liegen die in Benchmarks also geich auf. :D
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Melvin: Wenn man sich die restlichen Werte anschaut: Ja! Die Shaderleistung liegt unter einer 5850, die Textur und ROP Leistung aber bei ungefähr dem Doppeltem. Finde schon, dass das ein Flaschenhals ist.

@MountWalker: Er bezieht sich auf die Notebookchips, also z.B. die GTX280M. Denn diese sind wirklich nur ein umbenannter G80M.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

rein architekturbedingt erreicht ati mit seinen 5d-shadern jedoch niemals ihre theoretisch möglichen maximal werte.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Felixxz21

Eine GTX285 hat "nur" 700 GFLOPS, hält aber mit einer HD5850 mit - und die hat 2.000 GFLOPS.
 
Zuletzt bearbeitet: (GFLOPS statt FLOPS)
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

2000 flops wären sehr wenig?

du meinst doch 2000 megaflops^^


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

GFLOPS, sorry.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

JEder weiß was mit Flops gemeint ist aber Mr. Perfektionist muss natürlich wieder klugscheißen <.<^^
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich bin selbst Perfektionist, daher habe ich dafür vollstes Verständnis :D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

y33H@ schrieb:
@ Felixxz21

Eine GTX285 hat "nur" 700 GFLOPS, hält aber mit einer HD5850 mit - und die hat 2.000 GFLOPS.

Eine GTX285 hat 1063 GFLOPs. ;)

Wird ja auch nicht wirklich von Spielen ausgenutzt, in Zukunft (Direct Compute sei dank) aber wahrscheinlich schon, da einfach mehr CPU basiertes auf der Graka berechnet wird. Die allgemeine Shadernutzung steigt natürlich auch.


Und außerdem ist eine GTX285 ~8% langsamer als ne 5850, trotz eines viel höheren Speicherdurchsatzes.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nur wenn das MUL mit dabei ist und das ist nicht sooo oft der Fall. Die 1063 GFLOPS sind, wie du sagst, das theoretische Maximum - ich selbst nenne immer die MADD-FLOPS zur besseren Vergleichbarkeit.

Btw denke ich, dass man bei 8% langsamer noch von "mithalten" reden kann - die Differenz merkst du ingame nicht.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Da wir aber auch bei der Radeon die theroretischen Werte mit voller Auslastung der 5D Shader nehmen, ist es doch nur fair, wenn wir bei der GTX285 auch das MUL mit einbeziehen.

Und von nicht merken kann hier pberhaupt keine Rede sein. Die GTX285 steht nur so gut da, weil sie in 4xAA nur sehr knapp hinter ner 5850 liegt. In 8xAA beträgt der Unterschied durschnittlich 17%, in 2560x1600 und 8xAA liegt die Differenz gar bei 34%, wobei hier nur selten spielbare fps raus kommen.

Ohne Kantenglättung ist die GeForce immernoch 7% langsamer und selbst das ist spürbar, in Crysis Warhead kommt die Radeon in 1920x1200 noch auf bedingt spielbare 28 fps, während du mit einer GTX285 auf High zurückschalten musst (24 fps). Battleforge weist hier gar einen Unterschied von 34 (GTX285) zu 51 fps (5850) in 1920x1200 (1xAA) auf. Wenn du auf 8x schaltest rutscht die GTX 285 wieder auf gefährliche 25 fps, während die 5850 auf flüssigen 31 fps bleibt. Und das OHNE DX11!

Somit merkt man diese Differenz sehr wohl, nur mit 4x AA ist es nicht wirklich spürbar.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ob 245 oder 28 Fps ist egal, das ist beiden grenzwertig und macht imo kein Spaß. Und 8x MSAA in Crysis ... so ein Unfug! Zudem ist 8x MSAA ein reiner Benchmodus imo - in der Praxis fährt besser 4x TAA auf.
Die GTX285 steht nur so gut da, weil sie in 4xAA nur sehr knapp hinter ner 5850 liegt.
Das ist n Praxis-Setting, 8x MSAA nicht. 8x MSAA interessierte die meisten erst seit den HD4k, weil sie da besser dastehen. Vorher hats kaum einer genutzt, da der Sprung von 4x auf 8x optisch fürn A**** ist, aber böse an Fps und VRAM saugt.
Und das OHNE DX11!
CB nutzt AO mit "very high", das wird per DX11 beschleunigt. Oder aus welchem Test fischst du die Werte? Aktuell ist der hier - und da finde ich nur DX11-Werte für die HD5k.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

28 fps sind durchaus spielbar, 24 nicht. Sind ja durschnittswerte.
Außerdem schreibe ich doch extra "bedingt"....

Wo schreibe ich was von Crysis in 8x MSAA?? Die Werte sind von Crysis Warhead auf 1920x1200 mit 1xAA....

Und optisch fürn Arsch ist 8xMSAA nicht. Auf Bildern ja, aber in Bewegung sieht man deutlich weniger flimmern.

CB hat im Test zur 5850 Battleforge weder mit Ambient Occlusion, noch mit irgendeinem anderen DX11 Feature gebencht. Es kam die Vollversion unter DX10.1 zum Einsatz.
 
Zuletzt bearbeitet von einem Moderator: (Fullquote des direkten Vorposter entfernt)
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dennoch ist der Leistungsunterschied zwischen einer HD 5850 und einer GTX 285 DEUTLICH geringer, als es der Vergleich der GFLOPS nahelegt. Auch wenn der Trend immer mehr hin zur Shaderlastigkeit geht, die Pixel- und Texelfüllrate sowie Speicherbandbreite werden immer eine wichtige Rolle spielen, und da standen die GeForces in den letzten Generationen meist besser da. Und zu

"28 fps sind durchaus spielbar, 24 nicht"

sage ich mal nichts. Den Unterschied nimm subjektiv keine Mensch wahr. Beides fühlt sich definitiv ruckelig an.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Melvin: Treiber. Es geht ja auch darum, dass die HD5xxx atm einfach mehr Potential nach oben haben.
Das wird solang halten bis der Fermini rauskommt, da diese vllt nicht wesentlich schneller sind, aber vermutlich wieder x Mille in Treiberoptimierungen gesteckt werden,
mal sehen wer danach das Rennen macht, weil man an Benches in Spielen sieht dass das das A und O ist und wirklich mal 30% ausmachen kann.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Bei dem ganzen Vergleich von Shaderlastigkeit der Chips kann man ruhig immer wieder daran denken, dass es bei Nvidia einen optionalen High Quality Modus gibt, der auch in Zeiten einer HD5k immernoch deutlich mehr Füllrate braucht als ATIs maximale Qualitätseinstellung. (Sample-Einsparung bei ATI nach wie vor nicht abschaltbar) Nvidia bedient eben nicht nur den Mainstream, sondern auch Enthusiasten, denen etwas weniger Texturflimmern am herzen iegt. Und komm mir hier keiner mit Supersampling als Alternative - die Performance-Kosten stehen in keinem Verhältnis. (der grund warum MipMapping mit Anisotroper Filterung überhaupt entwickelt wurde ist ja gerade, dass Supersampling im Vergleich viel zu viel Leistung kostet)
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Aye... Nvidia ist geil, vor allem auch weil die OpenCL-Fähigkeit wesentlich besser ist, nur ich denke bis evtl auf wirklich extreme Leute ( die die sich auch 12gb Ram mit dem größten i7 Leisten z.B.) braucht sowas keiner, der nicht wirklich Professionell mit sowas arbeitet.
ATI reicht locker aus, bin aber mal gespannt wieviel sich Nvidia das kosten lassen wird, da der Fermini ja besser sein soll als der ATI bei Games UND massig Quali-Einstellungen UND OpenCL... da werden sicher viele Gamer zu AMD/ATI abwandern, denn die werden sicher wie beim Prozessor die Preise drücken.
bin gespannt... vor allem weil unsere OpenCL-Abteilung sicher wieder das neueste braucht und sich ein paar Highend-Fermini-Karten holen wird... da ist sicher mal "testen" drin :D
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixxz21 schrieb:
28 fps sind durchaus spielbar, 24 nicht. Sind ja durschnittswerte.
Und die Min-Fps liegen unter 20 Fps. Super. Crysis mit unter 30 Fps ist schwammig.
Felixxz21 schrieb:
Und optisch fürn Arsch ist 8xMSAA nicht. Auf Bildern ja, aber in Bewegung sieht man deutlich weniger flimmern.
Richtig, die Alpha-Tests flimmern nicht mehr :freak: Und die Texturen, die Shader usw. auch nicht mehr ...
Felixxz21 schrieb:
CB hat im Test zur 5850 Battleforge weder mit Ambient Occlusion, noch mit irgendeinem anderen DX11 Feature gebencht. Es kam die Vollversion unter DX10.1 zum Einsatz.
Ah ja?

2010-01-07_111950hbzr.png


Noch mal: Aus welchem Test fischst du deine Werte?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben