Test Test: AMD Radeon HD 6870 und HD 6850 (Update 2)

gruffi schrieb:
Willst du mich veräppeln? Nur 3 Spiele? Und keines zeigt grundlegende Unterschiede zwischen AMD und nVidia? Mal abgesehen davon, dass AF bei nVidia generell etwas mehr Performance zu kosten scheint? Und man sieht durchaus Fälle, wo es Unterschiede zwischen mit und ohne HQ bei nVidia gibt? Das alles sagt genau das Gegenteil von dem, was du hier behauptet hast.

Du bist sowas von unfreundlich, echt! Arbeite mal dran - und auch an deiner Arroganz!
Wenn dir drei Spiele nicht genug sind, mach doch selbst einen Test. Ich hab wenigstens was gebracht. Ich kann mit meiner 8800GTX und dem aktuellen Treiber auch gerne ein paar Benchmarks laufen lassen mit HQ vs Q, wenn du dann glücklich bist.

Als Nächstes willst du mir erzählen, dass alle Reviews nicht aussagekräftig sind, weil da "nur" 10 Spiele gebencht werden, im Jahr aber mehrere Hundert erscheinen? Irgendwo muss auch ein Schlussstrich gezogen werden.

Weiterhin ist dieser Link nur für Nvidia aussagekräftig, denn "HQ" war zum Testzeitpunkt noch was anderes als heute. Die Skalierung von AMD für Cat 10.10 findest du bei HT4U im Review der neuen Karten.

Und es bleibt dabei:
Nvidia verliert bei HQ praktisch nichts, AMD mit dem Sprung vom neuen Treiberstandard zum neuen HQ-Modus bis zu 10%. Bzgl. Nvidia hat sich seitdem auch nichts geändert (seit Erscheinen der 8800GTX übrigens nicht).

gruffi schrieb:
Natürlich. Je mehr, desto besser. Oder wie willst du sonst sehen, welche Auswirkungen es in der Praxis hat? Den Filter-Test kannst du dir schenken. Der mag für eine theoretische Betrachtung interessant sein. Sagt nur erstmal nicht viel aus. Keiner spielt einen Filter-Test.

Keiner spielt die AF-Blume. Trotzdem wird sie in Reviews herangezogen, es wird von AMD sogar mit totaler Winkelunabhängigkeit geworben. Keiner spielt 3DMark. Trotzdem wird er in Reviews herangezogen.
Du musst unterscheiden zwischen tatsächlichem Auftreten eines Phänomens und der subjektiven Wahrnehmung desselben. Natürlich lenken in Spielen andere Dinge ab wie Feindfeuer, Shaderflimmern etc. Aber kannst du für die Allgemeinheit sprechen und dem Filtertest sämtliche Relevanz für sämtliche Spielszenen absprechen?

Du verlangst und verlangst Beweise ohne auch nur auf die Idee zu kommen, dass es Leute gibt, die das Flimmern auch in (gewissen) Spielen stört. Und wenn es nur 1 von 100 ist - das ist dann subjektiv und hat nichts mit dem Thema zu tun. Die, die bei der AF-Diskussion sagen "merke ich nicht", das ist ja schön und gut. Dagegen sagt auch niemand was. Aber es darf doch trotzdem erlaubt sein, Missstände im Vergleich zur Konkurrenz zu kritisieren, oder? Nur durch Kritik kommt Verbesserung...meistens.

Weißt du, das ist so wie mit dem Stromverbrauch. Da wird auch deutlichst darauf hingewiesen. Aber auch da ist es wie mit dem AF:
Unterschiedliche Personen setzen ihre Prioritäten unterschiedlich.
Du sagst: Das Flimmern beim AF ist lächerlich (salopp ausgedrückt, man verzeihe mir).
Ich sage: Der Mehrverbrauch der Geforces ist für mich lächerlich, wenn ich ihn in Relation setze zu den gebotenen Features im Vergleich zur Konkurrenz. Woanders kann ich außerdem viel effektiver Strom/Energie sparen (Haushalt, Auto usw.)

Du siehst: Unterschiedliche Prioritäten. Dann sei doch bitte auch so fair und rede nicht jede Kritik klein, die ein Teil der Käuferbasis für angebracht hält. Wenn es dir schon nicht um Bildqualität geht, dann doch bitte um einen möglichst fairen Vergleich. Oder soll Nvidia morgen die Standardeinstellung auf AMD-Niveau absenken, um vielleicht auch 10% zu gewinnen? Oh wie wäre das Gemecker groß.
Ich kann mich noch gut erinnern, was damals bei G70 los war. Was für ein Aufschrei! Die Geizhals-Hinweise. Da ist das doch noch recht harmlos. Und es hat ja augenscheinlich bei Nvidia auch was gebracht.
 
Zuletzt bearbeitet:
Gibt es irgendwo Vergleichstests einer 6870/6850 zu der alten Geforce 8800 Serie?

Ich bin noch untentschlossen, ob sich ein Wechsel lohnt.
 
@ boxleitnerb

Hörmal, Du reitest hier in diesem Thread die ganze Zeit auf dem "geflimmer" herum. Jetzt bereits zum 10. Mal. Aber anscheind kannst Du, mit u.a. dieser Aussage
Super AMD...NOT. Aber 99% werdens wieder schlucken oder interessieren sich einen Dreck dafür.
nicht akzeptieren, dass andere Dein Argument nicht so sehr als schwerwiegend empfinden.
Mich hat das "geflimmer" meiner damaligen x1950xtx, sofern es denn mal existent war, nicht weiter tangiert.
 
Zuletzt bearbeitet:
@Grisu
Klar lohnt sich ein Umstieg, aber natürlich nur wenn du auch aktuelle Spiele spielst. Für CS:S lohnt sich das wohl kaum.
 
Dorian_Gray schrieb:
@ boxleitnerb

Hörmal, Du reitest hier in diesem Thread die ganze Zeit auf dem "geflimmer" herum. Jetzt bereits zum 10. Mal. Aber anscheind kannst Du, mit u.a. dieser Aussage

nicht akzeptieren, dass andere Dein Argument nicht so sehr als schwerwiegend empfinden.
Mich hat das "geflimmer" meiner damaligen x1950xtx, sofern es denn mal existent war, nicht weiter tangiert.

Ich führe hier eine Diskussion. Wenn es dir nicht passt, les es nicht. Hauptsächlich geht es mir um einen fairen Vergleich - wenn keiner das Flimmern sieht oder als wichtig erachtet und folglich alle mit Q benchen, ist dieser so nicht möglich. Um das geht es mir deutlich mehr als darum, ob gruffi oder andere das Flimmern in Spielen sehen oder nicht.
 
Zuletzt bearbeitet:
Ich führe hier eine Diskussion. Wenn es dir nicht passt, les es nicht.
Jetzt wirst Du aber unfreundlich, mein lieber!

Ausserdem gab es hier schon Postings von Boardies, die das "geflimmer" wohl auch wahrnehmen.
Und welchen Post ich lese bzw. nicht lese, dass musst Du schon mir überlassen. Ebenso worauf ich antworte und worauf ich nicht antworte. ;)
 
Dorian_Gray schrieb:
Komplettzitat entfernt. Bitte Regeln beachten.

Es ist nur ein Hinweis, das war nicht unfreundlich gemeint. Ich halte es eben nicht für sinnvoll, auf Posts zu antworten, die einen sowieso nicht interessieren, das ist nur Overhead. Aber natürlich kannst du es tun, wenn du denn musst.
 
Zuletzt bearbeitet von einem Moderator:
Ich denke mal, dass für Besitzer einer 460gtx der Wechsel noch ziemlich uninteressant ist. Mit etwas OC dürfte man die 6870 wohl gut einholen. Richtig interessant wirds doch eh erst wenn die Highend-Karten kommen ;)
 
Boxleitnerb schrieb:
Keiner spielt die AF-Blume. Trotzdem wird sie in Reviews herangezogen, es wird von AMD sogar mit totaler Winkelunabhängigkeit geworben.

Ob AF flimmert, hat nichts mit WInkelunabhängigkeit zu tun, der Video-Tester kann man mit einem realen Game nicht vergleichen.
Ich habe mir den Filter Tester selbst heruntegeladen und Nvidia vs. ATI darauf betrachtet.
Was man dort sieht ist, dass Nvidia unter diesem Filtertester deutlich weniger flimmert, das sieht man sehr sehr deutlich.
Im Spiel sehe ichs dann nicht mehr, nimm Beispielsweise Far CRY2 oder Gothic 4.
Das mag ergo genau was heißen?
Sicherlich soll man es anprangern, dass AMD hier etwas schlechtere Qualität in SPielen liefert und man soll auch anprangern, dass sie gesagt haben AF verbessert sich, auch wenns nur ein Bugfix hisnchtlich des Bandings war.
Aber verschlechtert hat sich laut Tests gar nichts, sagt auch PCGH nicht.
DAs behauptet ihr im 3DC.
Und wenn die Situation schon so ist, dass sich teilweise Fachleute CB vs. PCGH nicht einig sind, was HIGH Q und High nun für unterschiede darstellen (natürlich auch spieleabhängig), dann frag ich mich wirklich, warum ihr hier immer so einen Wind im Forum macht, wenn die Unterschiede womöglich extrem gering sind.

Das was ergo schade ist, ist dass dann viele Möchtegernexperten behaupten, die Bildqualität bei AMD sei schlechter als die bei Nvidia, obwohl sie selbst nicht wissen warum, sondern nur weil sie es mal gehört haben.

Diese Plakativität deiner Aussagen, dieser Drang danach ständig aus einer Mücke einen Elephanten zu machen.
Geübte Qualitätsfetischisten mögen diese Unterschiede im Vergleich sehen, dann und wann auch mal ohne Vergleich, aber dein Gerede ist wie immer übertrieben.
Vielleicht solltest du mal was anderes tun, als dich nur mit dem einen angeblichen AF Problem zu beschäftigen.

BTW könnte ich auch die Bildqualität Nvidias bei Maschendrahtzäunen trotz 16x HQ AF endlos kritisieren.
Wenn du ein Beispiel haben willst, such ich dir ein Vergleichsbild aus einem CB Test raus.

BTW Der Hotfix bringt noch etwas mehr Performance.
In Futuremark 5% mehr Leistung und in Gothic 4 ( wenn die CPU nicht limitiert auch etwas mehr).
Bin grad am Testen.:)
 
Zuletzt bearbeitet:
Soviel halt zur aktuellen Treiberdiskussion^^
Der Treiber kam 12h vor dem Launch an die Presse - ich glaub den hat wirklich keiner genutzt :D
 
Insgesamt ist es nicht schlechter geworden, weil man ja mit dem HQ-Schalter wieder den alten Zustand herstellen kann (+Banding-Fix immerhin).

Das Problem ist, dass der Treiberdefault im Vergleich zu vorher augenscheinlich etwas schlechter geworden ist. Es ist noch zu untersuchen, ob auf derselben Karte, z.B. eben eine 6870er auch ein Performanceunterschied des alten und des neuen Defaults liegt, also Cat 10.9 vs 10.10 z.B. Das wäre wirklich sehr interessant!

@Volker: Ist dahingehend etwas geplant?

Wie gesagt - ob jemand es sieht oder nicht...wayne. Der fps-Vergleich ist dann aber aus dem Fenster. Das ist der springende Punkt. Wenn HQ (AMD) vs Q (NV) gebencht wird, bin ich still - dann ist mir der Rest egal.
Gehört nicht nur, gesehen. Worüber ich mir Gedanken mache, überlasse doch bitte nur mir. Danke :)

So, EOD. Wer nicht will, der hat schon.
 
Zuletzt bearbeitet:
Schaun was die Zeit hergibt. Der nächste NDA-Termin für Cayman ist schon da, es fehlen ja auch noch paar andere Betrachtungen. Dazu gibt es schon ein halbes Dutzend Partnerkarten der beiden kleineren Ableger hier. Wird glaube ein arbeitsreicher November ^^
 
boxleitnerb schrieb:
Es ist nur ein Hinweis, das war nicht unfreundlich gemeint. Ich halte es eben nicht für sinnvoll, auf Posts zu antworten, die einen sowieso nicht interessieren, das ist nur Overhead. Aber natürlich kannst du es tun, wenn du denn musst.
Ich fand Deine Postings insofern interessant, als dass Du dich hier mehr oder weniger im Kreis drehst.
 
Zwei schöne Karten, warum hier auf dem Niveau eines Kindergartens diskutiert wird, kann ich kaum verstehen.

Gehirn einschalten und paar Sekunden nachdenken...
Ist doch egal ob Nvidia oder Ati, wichtig ist, dass die Preise runtergehen :)

Ist das Gedächtnis der Menschen so schlecht?
GTX Ultra für 700€+
5870/5850 die immer teuer geworden sind als beim Start
usw.

Man sollte sich freuen und nicht wie ein Halbaffe mit seinem eigenen Mist nach seinem Nächsten werfen :)
 
Der Treiberstandard scheint wirklich etwas schlechter geworden zu sein, positiv ist kein Banding mehr unter HIGH Q.
Deswegen wird die HD6850 auch nur mit High Quality bei PCGH getestet und ist ergo gleichschnell wie die GTX460, auch wegen der Nvidialastigen SPielauswahl. Aber 10% zwischen HQ und Q sinds nicht.
Vielleicht bringt ja der neue Treiber noch ein paar Neuerungen, insofern hast du natürlich recht.

Allerdings sollte man Karten mit standardeinstellungen testen und danach hinweisen dass AMD etwas geringere BildQualität hinsichtlich des AF bietet und man dies mit HighQ verbessern kann, hat man schließlich früher auch nicht anders gemacht.

@ Volker

Ich hoffe ihr macht nochmal einen neuen Test mit neuem Treiber, evtl. auch nen neuen für die GTX460, wobei das eh kaum einen Vorteil bringt.
Eine genauere Betrachtung des AF Unterschieds.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Und es bleibt dabei:
Nvidia verliert bei HQ praktisch nichts, AMD mit dem Sprung vom neuen Treiberstandard zum neuen HQ-Modus bis zu 10%. Bzgl. Nvidia hat sich seitdem auch nichts geändert (seit Erscheinen der 8800GTX übrigens nicht).

Und es bleibt dabei:
Seit Beginn des Threads reitest du hier auf deinen ominösen 10% rum. So langsam wirds echt penetrant. Du scheinst dich dabei auf folgenden Test zu beziehen:

http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index9.php

Wer genau hinschaut erkennt folgendes:

Crysis -0.4%
Chronicals of Riddick 0%
Battleforge -0.2%
Call of Duty: World at War -1.5%
Anno 1404 -5.8%
Colin McRae: Dirt 2 -1.2%
Stalker – Call of Pripyat -10.2%
Alien vs Predator 2010 -4.6%

Das macht im Schnitt ganze 3%. Aber statt den ganzen Test zu zitieren wird natürlich nur der schlechteste Wert als Beispiel genommen. Und nur zur Erläuterung, der Unterschied lag bei 32.5 zu 29.5 Frames, war also völlig egal.

So und wie sieht es bei Nvidia und der GTX470 aus:

Crysis -0.6%
Far Cry 2 -0.4%
Chronicals of Riddick -0.3%
Battleforge -0.4%
Call of Duty: World at War -4.4%
Anno 1404 0%
Colin McRae: Dirt 2 -0.3%
Stalker – Call of Pripyat -0.2%

Das macht im Schnitt zwar weniger als 1%, ich könnte aber genausogut rumrennen und sagen die Nvidia Karten brechen über 4% ein.

Und dann schaut man sich noch diesen Test hier an:

http://www.guru3d.com/article/radeon-hd-6850-6870-review/9

So the difference at default driver setting in-between AMD and NVIDIA is as far as we are concerned NIL.

Und wenn jetzt noch einer behauptet die Leute bei PCGH hätten mehr Ahnung als bei Guru3D dann ist eh alles zu spät, den kann man sowieso nicht ernst nehmen.

Also mach endlich Schluss mit deinem 10% Cheatgebrülle. Es wird langsam lächerlich...
 
Bei dem Test ist euch ein Fehler unterlaufen. Die GTX 460 hat meines wissens nciht 1907, sondern 907 GFLOPS ;) :cool_alt:
 
Kure Frage Reinwerf ^^

Lohnt sichs für mich von meinen drei 5830ern auf zwei 6870er umzusteigen? Man kann ja nur zwei in den CF nehmen so wie ich das beurteilen kann. Zumindest haben die neuen karten nur einen CF Anschluss.

Lohnt sichs für mich, zwei 6850er oder 6870er zu kaufen?
 
Zurück
Oben