Test Test: AMD Radeon HD 6870 und HD 6850 (Update 2)

Sicherlich sind bis zu 10% korrekt, allerdings bin ich froh, dass Schlambi uns augeklärt hat.
Im Schnitt also weniger als 3% und das hättest du ergo auch schreiben müssen.
Was hierbei natürlich sauer aufstößt ist die Frage, warum AMD wegen dieser 3% nicht gleich den Treiberstandard erhöht.
Das liegt wohl daran, dass ganz wenige Spiele etwas stärker einbrechen.
 
Zuletzt bearbeitet:
Kasjopaja schrieb:
Kure Frage Reinwerf ^^

Lohnt sichs für mich von meinen drei 5830ern auf zwei 6870er umzusteigen? Man kann ja nur zwei in den CF nehmen so wie ich das beurteilen kann. Zumindest haben die neuen karten nur einen CF Anschluss.

Lohnt sichs für mich, zwei 6850er oder 6870er zu kaufen?

Es lohnt sich nicht. Ich an deiner Stelle würde bis zur 6970 warten, und dann eine davon kaufen, oder 2.
Dann verkaufst du die 3 HD 5830 für ca. 400€

Du könntest aber auch schaun wie sich die 6990 so mach :P
 
Schaffe89 schrieb:
Nein, deine bisherige Methode des "Übertreibens" war nicht korrekt.
Wenn du es so dargestellt hättest wie Schlambi, wäre auch mit Sicherheit weniger Kritk dir gegenüber aufgekommen.

Das glaubst du doch selbst nicht ;)
Was ist an "bis zu 10%" nicht korrekt? Naja, ist wohl besser, das nach weitergehenden AF-Betrachtungen weiterzudiskutieren. So sind die Fronten wohl "etwas" festgefahren.
 
xcom schrieb:
GENAU !!! geforce gamer Den billigen ATI Rotz muss man ja sogar Runtertakten und Undervolten sonst Explodieren die nähmlich JawollJa.
Meinem Bruder sein Onkel dem seine Schwester kennt nämlich einen der hatte mal sone Hinterhältige Marketinglüge von AMD ähh ATI Da ist die Ganze Famielie an Augenkrebs gestorben weil ATI beim AF geschummelt hat. Und bei CB sind eh alle gekauft die benutzen ABSICHTLICH alte Treiber dami NV mies da steht SKANDAL!!

Wir sehen uns im Aquarium^^

Passend gesagt aber ich frag mich, obs der Adressat auch als Ironie verstanden hat. :D

Kure Frage Reinwerf ^^

Lohnt sichs für mich von meinen drei 5830ern auf zwei 6870er umzusteigen? Man kann ja nur zwei in den CF nehmen so wie ich das beurteilen kann. Zumindest haben die neuen karten nur einen CF Anschluss.

Lohnt sichs für mich, zwei 6850er oder 6870er zu kaufen?
@Kasjopaja: Kommt drauf an, ich würds erstmal lassen und auf 6950 und 6970 warten. Damit hast du den Vorteil, freie Entscheidungsfreiheit zu haben: Kann ja auch sein dass die 6950 ein echter Burner wird vom PLV. Mal sehen. Vlt reicht dir dann ja auch eine 6970 und du sparst dir obendrein das CF-Gemurkse ;)
Und wenn die Karten nix für dich sind, kannst du dich immer noch für zwei 68xxer entscheiden, die bis dahin sicher etwas vom Startpreis gefallen sind.

Rein von der Leistung her ist das erstmal schwierig einzuschätzen, da glaub ich noch keine Seite mit 5830-TripleCF gebencht hat :D Würde aber sagen, dass es sich bei zwei 6870ern wegen des Anschaffungspreises nicht lohnt, da du wenn überhaupt keinen großen Performanceschub haben wirst.
 
@boxleitnerb

Da guggst du: http://ht4u.net/reviews/2010/msi_n470gtx_nvidia_geforce_gtx_470/index7.php

Klar schreibst du bis zu 10%. Du vergisst aber völlig zu erwähnen, dass es sich dabei um nichtmal 3 Frames handelt und um lediglich ein einziges Spiel. Damit erzeugst du wissentlich ein falsches Bild. Ginge es dir nur um den Verlust allgemein dann würdest du schreiben im Schnitt 3%, was das ganze wieder in ein völlig anderes Licht rückt. Also erzähl mir nicht du machst das nicht absichtlich. Das glaubt dir kein Mensch.

We took three games, each part of our benchmark suite, each setup in the AA and AF levels we use in the test suite and for each game we'll take a still screenshot of the exact same location at 2560x1600, we then crop to a 300 pixels wide segment of the 3D scene and thus leave the pixels in-tact

Du würdest bei dieser Vergrößerung bei bewegten Bildern einen Unterschied erkennen. Das will ich sehen. Und an deiner Stelle wäre ich vorsichtig bei solchen Äußerungen über Guru3D. Die haben im Gegensatz zu dir einen Namen ;)
 
Zuletzt bearbeitet:
@ Aelrond

Danke für die Info. Man wie die hier alle Abgehen :D
 
derschlambi schrieb:
@boxleitnerb

Da guggst du: http://ht4u.net/reviews/2010/msi_n470gtx_nvidia_geforce_gtx_470/index7.php

Klar schreibst du bis zu 10%. Du vergisst aber völlig zu erwähnen, dass es sich dabei um nichtmal 3 Frames handelt und um lediglich ein einziges Spiel. Damit erzeugst du wissentlich ein falsches Bild. Ginge es dir nur um den Verlust allgemein dann würdest du schreiben im Schnitt 3%, was das ganze wieder in ein völlig anderes Licht rückt. Also erzähl mir nicht du machst das nicht absichtlich. Das glaubt dir kein Mensch.



Du würdest bei dieser Vergrößerung bei bewegten Bildern einen Unterschied erkennen. Das will ich sehen. Und an deiner Stelle wäre ich vorsichtig bei solchen Äu0erungen über Guru3D. Die haben im Gegensatz zu dir einen Namen ;)

Thx.
Ne es war wirklich keine Absicht, das kannst du mir glauben oder nicht. Ist auch die Frage, wie repräsentativ die Auswahl ist. Wenn man mehr Spiele dazunimmt, kann es sich nach oben oder nach unten verändern. Warten wir mal weiterführende Untersuchungen ab.
Ein fader Beigeschmack bleibt dennoch finde ich, so wie die ganze Geschichte von AMD behandelt wurde und wird.

Standbilder können kein Flimmern zeigen. Ganz einfach.

So, jetzt aber wirklich EOD.
 
Erstmal will ich mich im Vorfeld entschuldigen falls meine Frage schon gestellt und evtl. beatworted wurde, es sind inzwischen mehr als 900 Kommentare...

Frage: Im Update schreibt ihr von einer Saphire Karte mit falschem Bios. Diese Karte kann ich im Test nicht finden, dort sind nur die AMD und Powercolor Karten. Hab ich da was übersehen?.


Zu den Karten selbst. Preis Leistung geht in Ordnung, mann bekommt was für sein Geld.
Etwas verwirrend, die Namesnsgebung, aber man brauchte wohl mehr Platz nach oben.

Wird es eine Singleslot lösung der 6850 geben?
 
Hi ho

erstmal super Test und danke dafür! Habe mir gesern gleich eine 6870 bestellt... und werde mich mal selber davon Überzeugen :D
 
Über 900 Kommentare... :freak:

Und irgendwie möchte ich allen das gleiche sagen: Wartet doch einfach den zweiten Test ab. Wäre natürlich schön, wenn CB dort probeweise auch mal in ein oder zwei Benchmarks die Treibereinstellung von Q auf HQ ändert. Dann kann jeder seine eigenen Schlüsse daraus ziehen und es bedarf nicht mehrerer Hundert Kommentare, die sich über 10% oder nicht 10% oder irgendwas dazwischen streiten.:freaky:
 
WARDOG705 schrieb:

Nachdem der Typ ein 500-600W Netzteil empfohlen hat, hab ich aufgehört weiter zu schauen...
1. Hey, da muss noch die Effizienz des Netzteils runter
2. Also ich zocke nicht Prime95 und Furemark

geforce gamer schrieb:
sorry aber AMD Karten regen mich einfach auf,nur Probleme gehabt mit den Karten von Treiber bis flimmern war alles dabei.nein danke!das beste was man jetzt kaufen kann für um die 200 Euro ist eine gtx 470.
Wie gesagt, 30cm vorm Bildschirm...

geforce gamer schrieb:
1. Beweis mal bitte das Hawx2 wegen der Tesslationleistung schneller ist.
2. Wenn die GF100 so gut sein soll und AMD keine Konkurrenz dagegen hat, warum sinkt dann die Konkurrenzlose 470 wegen der ach so schlechten AMD Karten? :freak:


Dorian_Gray schrieb:
Ich kann mir vorstellen, dass die GTX 470 auf ein ähnliches Preisniveau rutschen wird, wie damals die GTX 260. ;)

Sollte das passieren, wird die 465, 475 und 480 bestimmt eingestellt.
Denn die GTX260 hat sich damals für Nvidia schon nicht gelohnt und musste eingestellt werden und jetzt ist der Chip noch größer...


schakal87 schrieb:
Hey habe zur zeit ne 5770 und nen 17" monitor. Habe mir jetzt ne 6850 bestellt und nen 23" monitor. War die entscheidung richtig oder eher rausgeschmissenes Geld. Für die 5770 bekomme ich ja noch so 100€. Spiele CoD7, F1 2010, MoH, Crysis 2...

Ich vermute mal, dass dein Monitor eine Auflösung von 1900 oder größer hat:
Also wenn du das meiste bis alles auf hohen Einstellungen Spielen willst, würde ich zumindestens eine HD6870 nehmen.

Der 17" Monitor hatte eine viel geringere Auflösung und hat deswegen mit der 5770 gut harmoniert.


wheal schrieb:
Frage: Im Update schreibt ihr von einer Saphire Karte mit falschem Bios. Diese Karte kann ich im Test nicht finden, dort sind nur die AMD und Powercolor Karten. Hab ich da was übersehen?.
Die Sapphire Karte ist die AMD Karte.
CB hat sie wahrscheinlich deswegen AMD Karte genannt, weil das das Referenzdesign ist und so nicht von Sapphire anscheinend auf den Markt kommt.
Ergänzung ()

Matrix007 schrieb:
hallo habt ihr das schon gelesen?

Einige AMD Radeon HD 6850 mit 1120 Shader-Prozessoren?

kann man bei hier nachlesen wenn ja ist das ja mal so wie mit der GTX465 wo man eine GTX470 machen konnte.

http://www.hardwareluxx.de/index.ph...deon-hd-6850-mit-1120-shader-prozessoren.html

Ja, wurde hier schon vor 10 Seiten oder so diskutiert..
Es ist zu hoffen, aber wo du gerade GTX465-GTX470 erwähnst:
Da ging das nur bei den Versionen mit 10 Speicherchips und das waren so gut wie keine...
 
Mh2 std gezockt bis jetzt mit 950mhz fehlerfrei, im laufe des Tages mal 975 versuchen geht gut das Teil!
 
Die Sapphire Karte ist die AMD Karte.
CB hat sie wahrscheinlich deswegen AMD Karte genannt, weil das das Referenzdesign ist und so nicht von Sapphire anscheinend auf den Markt kommt.

Sowohl die AMD Referenzkarten, als auch die Sapphire Karten werden von PCPartner hergestellt, macht also nich wirklich 'n Unterschied, ob da nun Sapphire oder AMD steht.
 
Heute ist meine ATI Sapphire 6850 gekommen. :D
(Upgrade von HD4350 auf HD6850)
Wollte gerade den neusten Treiber runterladen, aber es gibt noch keine Treiber der 6800er
Serie für den Download :(
Bis der Treiber "optimal" angepasst ist werden noch schätzungsweise 2 Monate vergehen.
 
Es gibt bereits einen Hotfix. Und die Treiber sind online.^^
Ansonsten musst du dich mit der beigefügten Treiber CD begnügen.
 
boxleitnerb schrieb:
Du bist sowas von unfreundlich, echt! Arbeite mal dran - und auch an deiner Arroganz!
Ich zitiere dich mal selbst: ;)
Es ist nur ein Hinweis, das war nicht unfreundlich gemeint.
Du erzählst hier Märchen, dass sich die Balken biegen, und wunderst dich, wenn ich dich frage, ob du mich veräppeln willst, nachdem du eine Quelle bringst, die das genaue Gegenteil von deinen Behauptungen zeigt? Nimm es mir nicht übel, aber arbeite lieber mal an deinen Aussagen, deren Wahrheitsgehalt und deiner Sturheit, mit der du immer wieder auf der gleichen Sache rumreitest. Gibt ja nun schon genug nVidia Spammer hier, die hoffentlich ins Aquarium wandern. Da musst man sich nicht auch noch dazugesellen. Denn ehrlich gesagt halte ich dich doch für vernünftiger (noch). ;)

boxleitnerb schrieb:
Wenn dir drei Spiele nicht genug sind, mach doch selbst einen Test. Ich hab wenigstens was gebracht.
Nur leider nichts aussagekräftiges bzw etwas, was überhaupt nicht zu deiner Argumentation passt.

boxleitnerb schrieb:
Als Nächstes willst du mir erzählen, dass alle Reviews nicht aussagekräftig sind, weil da "nur" 10 Spiele gebencht werden, im Jahr aber mehrere Hundert erscheinen? Irgendwo muss auch ein Schlussstrich gezogen werden.
Ein weiterer Punkt deiner provokanten Art. Du wirfst wieder Sachen durcheinander, die gar nichts miteinander zu tun haben. Lies die Beiträge nochmal durch und auch worauf sich die "10 Spiele" bezogen.

boxleitnerb schrieb:
Und es bleibt dabei:
Nvidia verliert bei HQ praktisch nichts, AMD mit dem Sprung vom neuen Treiberstandard zum neuen HQ-Modus bis zu 10%. Bzgl. Nvidia hat sich seitdem auch nichts geändert (seit Erscheinen der 8800GTX übrigens nicht).
Nein. Das sind nur Ausflüchte ohne Beweisgrundlage, weil du dir irgendwas zurechtbiegen willst. Weise nach, dass in den drei verlinkten Spielen von dir AF bei den neuen Radeon Karten anders skaliert als bei nVidia. Bis dahin bleiben deine Behauptungen ohne Wert.

boxleitnerb schrieb:
Keiner spielt die AF-Blume. Trotzdem wird sie in Reviews herangezogen, es wird von AMD sogar mit totaler Winkelunabhängigkeit geworben. Keiner spielt 3DMark. Trotzdem wird er in Reviews herangezogen.
Diese Sachen werden aber gesondert betrachtet. Genauso wie Leistungsaufnahme (Vorteil AMD), HD Wiedergabe (Vorteil AMD), Multi-Monitor Support (Vorteil AMD), usw. 3DMark wird genauso separat getestet und fliesst ins Gesamtrating nicht ein. Willst du ein subjektiv geringeres Flimmern bei nVidias HQ AF jetzt als Maszstab für den gesamten Test erheben? Man kann es auch übertreiben und sich alles so zurecht biegen wie gewünscht. Lerne lieber mal das Gesamtpaket zu bewerten und dich nicht an einem einzelnen Punkt aufzuhängen.

boxleitnerb schrieb:
Du verlangst und verlangst Beweise ohne auch nur auf die Idee zu kommen, dass es Leute gibt, die das Flimmern auch in (gewissen) Spielen stört.
Natürlich ist mir das bewusst. Oder kommst du nicht auf die Idee, dass es Leute gibt, die das nicht stört? Und nun? Machen wir jetzt eine Selbsthilfegruppe auf? Du bist doch derjenige, der hier ständig irgendwelche Thesen in den Raum stellt, nicht ich. Ich verlange lediglich, dass du diese objektiv begründest. Viel davon sehe ich aber ehrlich gesagt nicht. Und die Betonung liegt auf "objektiv". Mit deinen subjektiven Eindrücken kommen wir da keinen Millimeter weiter. Wenn du also behauptest, die Bildqualität default HD 5800 wäre besser als default HD 6800, dann solltest du das auch anhand von technischen Grundlagen untermauern. Irgendwelche Videos, deren Vergleichbarkeit oder Repräsentativität überhaupt nicht ersichtlich ist, reichen da schlichtweg nicht aus.
 
Zurück
Oben