Test GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme

Dann bequatsch das doch dort - willst du das ganze denn hier nochmal aufwärmen?
Wird doch dann sowieso wieder versenkt wegen Offtopic.
Es flimmert auch nicht - das ist einfach erfunden.
 
Fetter Fettsack schrieb:
Und was macht da ATi'sches AF so anders, dass es flimmert, bei nVidia aber nicht?
Sample-Einsparungen und fehlende trilineare Filterung der MIPs.

@ Complication

Ich mach dir ein Video :) Dann sieht auch du Flimmern und Banding, keine Sorge. Fakten lassen sich nicht weg diskutieren ("das ist einfach erfunden"). Und OT ist es nicht - es erklärt nämlich teils, warum die GTX 480 in Crysis im Vergleich zur HD5870 so schwach ist. AMD spart sich hier halt viel TMU-Arbeit und kann dann mit den FLOPS klotzen.
 
http://techreport.com/articles.x/17618/6
Not only that, but generally we'd be handing you a caveat right now about trilinear filtering on the Radeons, because AMD has long used an adaptive trilinear algorithm that applies more or less blending depending on the contrast between the textures involved. In the case of a test like this one, that algorithm always does its best work, because the mip maps are entirely different colors. In games, it applies less filtering and may not always achieve ideal results. However, for Cypress, AMD has decided to stop using that adaptive algorithm. Instead, they say, the Radeon HD 5870 applies full trilinear filtering all of the time by default, so the buttery smooth transitions between mip-map colors you're seeing in the image above are in earnest.
 
Der AF-Tester ist fürs Banding und Sample-Einsparungen nutzlos. Zudem "they [=AMD] say".
 
@y33h@

Danke für die Erläuterung.

@Complication

Ich will/wollte keine OT Diskussion vom Zaun brechen, sondern nur wissen, mit was y33h@ seine "Behauptung" technisch erklärt, um sie nachvollziehen zu können. Würde ich bei dir genauso machen, wenn mir etwas unklar wäre.
 
y33H@, du musst aber auch zugeben, dass Crysis bei der AF-Problematik ein absoluter Extremfall ist, der so eigentlich sonst nicht wieder auftritt =)
 
Joa, ist ein Extremfall. Bestreite ich ja auch nicht - in Crysis ist das AF halt "totoptimiert".
 
Dann frage ich mich wirklich warum das "Problem" auf die Hardware geschoben wird und du nicht schreibst: "Das AF bei Crysis ist totoptimiert"
Das bestätigt doch meine Einschätzung dass ihr bei PCGH nicht Hardware testet sondern Spiele - nur macht ihr dann die Hardware für alles verantwortlich. Wie kann man aus einem Spiel darauf schließen dass die eine oder andere Hardware fehlerhaft ist oder einen Vorteil hat?
 
hm, irgendwie verspür ich das Bedürfnis mir ne GTX480 zum testen zu besorgen^^


gruß
 
@ Complication

Die Hardware filtert ja wohl ...
Wie kann man aus einem Spiel darauf schließen dass die eine oder andere Hardware fehlerhaft ist oder einen Vorteil hat
Es flimmert auch in anderen Spielen stärker, so ist's ja nicht.
 
Behaupten kann jeder alles ... wo bleiben die Beispiele?
 
Videos gibt's auf der DVD der kommenden PCGH. Wenn ich etwas behaupte, kennzeichne ich es als Behauptung. Das Flimmern durch Sample-Einsparungen und fehlende trilineare Filterung der MIPs ist aber ein Fakt.
 
Ja so kann man auch ein Heft verkaufen - und ich habe sehr oft gesehen wie du Behauptungen als Fakt kennzeichnest. Hier erzählst du wieder das genaue Gegenteil wie hier:
Joa, ist ein Extremfall. Bestreite ich ja auch nicht - in Crysis ist das AF halt "totoptimiert".
Ist doch dann eher ein Crysis Problem, oder eines der Tester - das gleicht ja schon dem 2D Test von Toms Hardware in seiner Lächerlichkeit.
Ich hoffe in der neuen PCGH ist auch ein aktueller Test über Rollwiderstände von Mousepads, damit sich der Kauf lohnt.
 
Video : Nvidia führt die Lautstärke im Gehäuse vor und gibt Empfehlungen.

Nvidias Fermi-Grafikkarten sind lauter und wärmer als die Pendants der Firma AMD. Nun möchte Nvidia zeigen, dass Lautstärke- und Temperaturentwicklung nicht so dramatisch sind, wie in der Presse kritisiert: Es hänge sehr viel von einem guten Gehäuse ab. So führt das Unternehmen in einem Video seine GTX 480 in einem Cooler Master Cosmos vor und die Grafikkarte pendelt sich bei einer Lautstärke von ca. 52 Dezibel ein. In der Unigine-Heaven-Demo mit einer Auflösung von 2560 x 1600 Bildpunkten stieg der Pegel jedoch auf 63 Dezibel.
Anzeige
In Furmark 1.6.5 bei identischer Auflösung klettern die Temperaturen im Cosmos S auf 97 Grad Celsius. Das günstigere Gehäuse, das Cooler Master Centurion 534, sorgt allerdings für Temperaturen von 105 Grad Celsius.

Nvidia behält demnach recht, dass das Gehäuse die Temperaturen stark beeinflusst. Dies gilt jedoch genau so für andere Grafikkarten und Komponenten. Im Bereich Lautstärke und Temperaturen bleibt AMD somit für diese Grafikkartengeneration im Vorteil.

http://www.extrahardware.cz/files/i...assis/geforce_gtx_480_noise_and_chassis_2.wmv
 
@ Complication

In Crysis ist der Unterschied massiv, in anderen Spielen geringer - aber vorhanden. Da gibt es nichts zu diskutieren.
ich habe sehr oft gesehen wie du Behauptungen als Fakt kennzeichnest
Na dann bring mal eine Hand voll Beispiele.
 
y33H@ schrieb:
Das Flimmern durch Sample-Einsparungen und fehlende trilineare Filterung der MIPs ist aber ein Fakt.

:evillol:
 
Ich werde die Hersteller von Wörterbüchern anrufen das "Eine Hand voll" laut neuster Definition 1 ist.
 
Jenergy schrieb:
Die Leistungsaufnahme unter Furmark ist aber nicht wirklich repräsentativ
Wer redet denn von Furmark? Schau dir doch die Links wenigstens erstmal an. HT4U hat die Leistungsaufnahme anhand einer ganzen Reihe von Spielen getestet. Und da braucht die GTX durchschnittlich eben knapp 20% mehr Strom.

Konti schrieb:
Ich meine, wenn's in nem halben Jahr immernoch so schlecht aussieht mit den NVidia-Karten, kann man davon ausgehen, daß du recht hast, aber wie du jetzt schon zu diesem absoluten Urteil kommst, ist mir ein Rätsel.
Mir ist ehrlich gesagt herzlich egal, was nVidia in einem halben Jahr hat. Wie du dir vielleicht denken kannst, hat die Konkurrenz dann auch schon wieder etwas anderes am Start. Ich beurteile das, was aktuell ist. Und da ist das Fermi Chipdesign ein völliger Fehlgriff.

Complication schrieb:
Es flimmert auch nicht - das ist einfach erfunden.
Jup, würde ich auch einfach mal behaupten. Ich kann auf meiner HD 5750 zumindest kein störendes Flimmern wahrnehmen. Das ist vermutlich nur wieder y33H@ typische Rosinenpickerei.
 
richtig ist, das ein gewisses flimmern bei einigen spielen mit der serie 48xx der fall war (4850, 4870 und 4890 toxic hatte ich alle 3)...
bei der 58xx serie sieht man dieses flimmern eigentlich nicht mehr wirklich oft, außer bei crysis evtl.. welches ich allerdings nicht spiele^^ (hab die demo zwar drauf für den overclocking thread aber das wars auch schon)
 
gruffi schrieb:
Ich kann auf meiner HD 5750 zumindest kein störendes Flimmern wahrnehmen.
Hast eine Geforce ab G80 zum Vergleichen? Gerade in Crysis? Dann siehst du das Flimmern.
 
Zurück
Oben