Test Test: AMD Radeon HD 6870 und HD 6850 (Update 2)

@ Update:

Das hieße ja, dass man eine HD6850 via Bios eventuell auf eine 6850 (mit Features der HD6870) freischalten kann...
 
Hahaaa xD!!11 Jetzt sind die Karten seit ein paar Stunden draußen und jeder weiß, dass es möglich ist, mit dem passenden BIOS den Chip der 6850 zu unlocken :D :D

AMD und Unlock wird wohl sowohl bei CPU als auch GPU in die Geschichte eingehen ^^

Tja Sapphire selbst ins Bein geschossen, wenn man ne Karte mit dem falschen BIOS ausliefert *g*

Hab mich ja in meinem post auf Seite 15 schon gewundert, wie wenig leistungsunterschied zwischen 6850 und 6870 sind, grade mal 8%, bei 30% höherem Preis. Klar ist da was schiefgelaufen.
 
|MELVIN| schrieb:
Ich finds schade, dass Grafikkarten der alten Generation wie die GTX 285 oder die HD 4890 nicht mehr dabei sind. Das würde einem dabei helfen, die Leistung der neuen Karten besser einzuordnen. Ich kann jetzt beispielsweise überhaupt nicht abschätzen, ob es sich rein leistungstechnisch für mich lohnen würde, von meiner GTX 275 @ 12% OC auf eine HD 6870 zu wechseln.....

Dann guck innen anderes Review:
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6870/29.html

Ne 6870 sollte 20% schneller sein als deine übertaktete GTX275 bei deutlich weniger verbrauch, obs dir das wert ist musst du wissen.
 
Ich seh das schon wie bei den Phenom X2 -> X4 unlocking ;) wer sich auskennt bekommt ne HD6870 zum Preis einer HD6850. Da hat AMD mal wieder was feines für den Zocker gebastelt.
 
ich hab nen 22er monitor. laut test hier ist die 6850 mit 4 fach aa da schneller als ne 5850. falls sie nun "nur" noch quasi gleichschnell ist... egal. 149€ kostet das ding =)

ich bleib bei meiner bestellung =)
 
Wieso gibts bei hardwareluxx bei Crysis Warhead so eklatant abweichende Werte von denen von cb?
 
Auch wenn auf der HD 6850 das falsche BIOS war, so ist diese doch sehr interessant. Da würde ein Minus von 5% Leistung, mit "richtigen" BIOS, auch nichts ändern.
Wenn ich z.Zt. keine Grafikkarte hätte, dann wäre die HD 6850 meine erste Wahl. :)

meiermanni schrieb:
@ Antimon: Welches Wesen kann 10 Stunden am Tag zocken? Hartz4 Gamer? Kiddie in den Ferien? Setz da mal 2 Stunden ein und der Mehrwert interessiert niemanden mehr.

Unterlasse doch bitte Deine Polemik. Die meisten Empfänger von Hartz IV haben mit Sicherheit andere Sorgen. :rolleyes:
 
Ich warte mal lieber bis die fnialen Tests da sind und wie sich die 6870 im Custom design verhält! 5% weniger, das heißt ja das die 6850 nicht genau so schnell wie die 5850 ist!
 
Da sieht man nun die wirkliche irrführung ... die 5870 is genausogut wie die 6870 .... wtf? Naja brauch ich keine neue :D
 
Hmm das mit dem Bios ist interessant. Heißt "falsches Bios" einfach nur das Bios von der 6870 oder ist das kein Standard-Bios?

Wenn doch wärs natürlich ne feine Sache. Ein paar Prozent mehr Leistung durchs Bios ^^
 
|MELVIN| schrieb:
Ich finds schade, dass Grafikkarten der alten Generation wie die GTX 285 oder die HD 4890 nicht mehr dabei sind. Das würde einem dabei helfen, die Leistung der neuen Karten besser einzuordnen. Ich kann jetzt beispielsweise überhaupt nicht abschätzen, ob es sich rein leistungstechnisch für mich lohnen würde, von meiner GTX 275 @ 12% OC auf eine HD 6870 zu wechseln.....


mit ner GTX285 dürfte man grob auf Augenhöhe mit einer 6850 liegen, die 6870 entsprechend ein Stückchen schneller. Von einer GTX275 OC auf eine 6870 lohnt sich u.U., kommt auf deine Auflösung an und obs eben eng wird. Auf nem 22 Zoll < Full HD eher weniger als auf nem >= Full HD.

Bin von einer GTX280 auf ne 480er und der Unterschied ist jetzt nicht so prall musste aber sein, weil der 280er die Luft ausgeht wo die 480er ne Schippe drauflegen kann. DX 11 ist mir dabei sowas von egal.
 
dorndi schrieb:
Ein Mazda 3 ist auch schneller als ein Mazda 5, wo ist dabei das Problem?
Warum verbindest du die Modellbezeichnung einzig und allein mit der Performance?
Darf eine sehr effiziente Karte aus der Performanceklasse keine hohe Modellbezeichnung haben?


Der Vergleich hinkt aber, bei dem Beispiel wäre ein Auto als Vergleich sehr unpassend.
Die Effizienz von dieser Karte reist auch keine Bäume aus wie erwartet, den soooviel Effizienter als der Vorgänger ist Sie nicht!

z.B. Es ist üblich das eine HD5650 schneller als ne HD4650 ist, oder nicht? Und wie wiederum schneller als der HD3650.
So gilt es bei jeder Grafikkarte bei jeder Serie! Auch wenn es manchmal Ausnahmen gibt wie z.B. GeForce 9 9800GTX im Vergleich zur GTS250, aber der GTS250 ist nur ne Mainstream Grafikkarte, das GTS Bezeichnung alleine deutet schon darauf hin.
Aber bei der ATI ist es immer üblich, dass die erste Zahl z.B. "6" für die Generationen stehen, die "8" für dessen Klasse, und die beiden letzten sind die Unterschiedlich schnellere Variante unterhalb dessen Klasse.
 
Wie uns Sapphire soeben mitgeteilt hat, ist auf unserer Radeon HD 6850 das falsche Bios aufgespielt. Die Karte bietet zwar die korrekten Taktraten der Radeon HD 6850, kommt in Sachen Architektur aber mit den Features der Radeon HD 6870 daher.

ROFL ... da wird sich amd sicher freuen, dass sapphire (schon am ersten verkaufstag *g*) darüber informiert, wieviel mehrleistung ein biosflash bringen wird, und dass es überhaupt möglich ist. :D
 
Man vergisst hierbei aber ganz klar das die hd der 5er Serie eher die Highend Karte war und seit der 3er Serie die x8xx für midgame stand.. Ergo vergleicht bitte kein Highend mit Midrange. Danke

Der Test ansich ist sehr aufschlussreich, auch wenn der Bios Fail von Sapphire nicht sein sollte ;) Naja CB liefert eh die Tage nen richtigen Test nach. Ansonsten machen beide Karten einen Guten, wenn auch keinen Überragenden Eindruck.. Leute die eine 3er oder 4er Karte haben sind auch eher angesprochen, als die herren mit der 5er Serie. Also ist die Namensgebung vllt etwas unglücklich, aber eigentlich berechtigt, da man nun absehen kann das AMD nun wieder eine Highend /Performance / Midrange und Causal Karte anbieten wird. Hoffentlich werden die x4xx dann abgelöst durch Fusion, bzw als reine HTPC Karte angepriesen. Abwarten was Cayman bringt und hoffen wir einfach mal das die 5770 ihren Namen behalten darf.

Mein Wunsch für die Produktaufstellung wäre dann konsequent die x8xx als Performance anzupreisen. Naja mal schaun was kommt. Leider überlege ich nun wieder und wieder ob AMD oder NV.. Beide bieten gute Paktete an, vergleiche mit dem HPC Chip der GF100 hinken aber gewaltig.. Auch wenn deren preis derzeit genauso günstig ist, alleine der Mehrverbrauch schreckt Menschen die Ihren Strom selbst zahlen ab.

Was nun wirklich intressant wäre, ist wieschnell diese Zubehörsachen für Eyefinity und Open 3D auf den markt kommen.. Und ich kann schon heute Sagen, dass NV nicht mehr lange Vision haben wird. Der Markt diktiert was der Hersteller liefern muss, und nicht umgekehrt.
 
gruffi schrieb:
Da auf den Folien nichts von Banding steht, erübrigt sich sich Frage. Ausserdem ist nichts von einem Bug nachgewiesen. Also stellt sich die Frage auch nicht nach einem Bugfix. Und wenn du fragst, ob ich Verbesserungen bei der Bildqualität ok finde, dann kann ich das mit ja beantworten. Wenn du fragst, ob es notwendig ist, fällt die Antwort noch subjektiver aus.

Meines Wissens nach trat das Banding so krass bei HD4000 und darunter nicht auf.

Es steht nicht das Wort Banding da, aber es ist wohl klar, was AMD mit den folgenden Worten meint:



gruffi schrieb:
Aha, du übersetzt also aggressiver mit schlechter? In welchem Wörterbuch für Synonyme ist das so definiert? :rolleyes: Entweder hat PCGH etwas falsch interpretiert oder belügt uns. Die Aussagen von Dave Baumann sind unmissverständlich.

Schau dir die Videos bei HT4U an, dann siehst du, dass sich die Treiberdefaults von der Flimmerneigung her unterscheiden. Da ich ein stärkeres Flimmern als schlechter empfinde, finde ich diese Gleichsetzung der Begriffe in diesem Fall durchaus angebracht. Das ist aber Haarspalterei und das weißt du auch.

gruffi schrieb:
Das Problem ist vielmehr, Aussenstehende können nicht zwischen technischen Fakten und subjektiven Eindrücken unterscheiden. Technisch Fakt ist das, was Dave sagt. Und das gilt bedingungslos. Wenn PCGH oder wer auch immer sagt, die Bildqualität wäre schlechter, dann ist das lediglich ein subjektiver Eindruck und nicht repräsentativ. Das kann bei jemand anderem ganz anders ausschauen.

Wie gesagt - Videos. Man sieht eine Verschlechterung. Wenn das bei dir nicht der Fall ist, naja, da kann ich auch nichts machen. Lügen CB, HT4U und PCGH alle? Hast du die Videos überhaupt angeschaut??? Wichtig ist doch nur das, was beim Nutzer ankommt. Was da unter der Haube passiert, juckt mich nicht, solange das Resultat nicht befriedigend ist.

gruffi schrieb:
Hat man nicht genau das gemacht? ;)

Nein hat man nicht. Der jetzige HQ-Modus ist in etwa auf dem altbekannten Niveau (was das Flimmern betrifft) und nicht wirklich besser, wie verschiedene Reviews (auch CB) schreiben.

gruffi schrieb:
Falsch. Auch nVidia spart sich Rechenarbeit. Es gibt mehr als nur "Flimmern". Wenn nach deinen Aussagen High Quality bei nVidia Verbesserungen bringt und keine Performance kostet, wieso sollte das nVidia nicht zur Standardeinstellung machen? Wieso gibt es dann überhaupt qualitätssteigernde Einstellungen bei nVidia? Deine Ausführungen ergeben keinen Sinn.

Moment! Sie sparen an Bildqualität. Q ist schlechter als HQ, klar. Aber Tatsache ist doch, dass das Sparen ihnen nichts bringt und es einen optisch nahezu einwandfreien Modus gibt: HQ. Das sehe ich wie du - Q abschaffen, HQ als Treiberdefault und die Sache ist gegessen!
Wo genau ergeben meine Ausführungen keinen Sinn? Werde bitte präziser.
 
Zuletzt bearbeitet:
An alle, die an dem Thema "AF Qualität" der aktuellen AMD Karten interessiert sind, bitte HIER rein schauen.
Ich finde es nicht nett, was AMD hier für "Arbeit" geleistet hat.:freak:
Aber zu dem Thema muss sich jeder seine eigene Meinung machen.

EDIT:
Durch das falsche Bios dürfte die Sapphire HD 6850 wohl mit 1120 statt mit 960SPs gelaufen sein.
 
Zuletzt bearbeitet:
Ich freu mich schon auf die MSI R6870 Hawk :D
 
Einfach unglaublich das ganze. 150€ für ne quasi HighEnd Karte.

Wo sind die Zeiten, bei denen man 300€ für midrange und 600€ für High End ausgab?
Und dann reichte für max Einstellungen gerade so die High End Karte.

Heute: 150€ Karte kaufen und man hat Leistung, die MEHR als ausreicht. Ich freu mich schon auf meinen nächsten PC. GraKa 150€ CPU 6 kerne 150€ usw.. das wird ja sehr günstig... :D


Es wird mal wieder zeit, dass die ganze Leistung für bessere Grafik umgesetzt wird.
Da sieht man wieder, dass hier offensichtlich die Konsolen arg bremsen. Die Entwickler haben gelernt, sparsam und effizient zu programmieren (wobei es aber leider immer öfter auch negativbeispiele gibt).
Siehe nur Techdemo von UnrealEngine 3 auf dem iPhone (die grafik ist besser als in oblivion), momentan kann die gewonnene effizienz IMHO aber nicht für grafik umgesetzt werden...

Wird zeit, dass neue Konsolen kommen. Ich bin mir sicher, dass dann wieder ein großer Grafiksprung ansteht, so wie es 2007 mit den nvidia 8800er Karten und den darauf folgenden Spielen geschehen ist.
 
Zurück
Oben