Test HD 6970 und 6950 im Test: Zwei neue AMD-Radeon-Grafikkarten die enttäuschen

Ich kaufe mir jetzt eine HD5970, nenne sie HD6990 und blase eure GTX580 weg...hahaha...was soll dieses Fanboy gehabe? ATI greift schon lange nicht mehr mit Single-GPU Karten nach der Spitze...ich hätte von der 70er mehr erwartet, die 50er ist jedoch ein geniales Paket...ich will eine Karte die ein gutes Paket abliefert und nicht die Welt kostet...und da ist es mir egal von wem die kommt...Intel? ^^
 
Jo, damit hat's sich entschieden für mich. Meine 4870 geht in Rente und 570 kommt rein. Schade AMD, meine Erwartung war höher!
 
Makso schrieb:
Bei den anderen Reviews wie unten angemerkt ist der verbrauch der HD 6970 immer weniger sowohl im Idle als auch unter Volllast!

Im Vergleich zu was? Äpfeln? Idle ist beispielsweise auch geringer als GTX 570. Und Volllast gleich wie die GTX 570. Da haben andere Seiten sogar noch ein schlechteres Bild von der HD 6970: http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index22.php Da mal die beiden Diagramme ansehen.

Und der Rest stimmt doch auch: Gleiches Idle wie Vorgänger, HD 5850 verbraucht weniger als 6950, die wiederum nicht so viel wie die HD 5870. HD 6970 schlägt sie aber alle um Längen.
 
Zuletzt bearbeitet:
Zum Nachtrag bei HT4U bzgl. Powertune sagt keiner was?

Das macht die einzig interessante Karte, die 6950, imo ziemlich unbrauchbar. Gängelung ftw...NOT. Drosselung könnte selbst bei Standardtakt und normalen Spielen möglich sein (wer weiß das schon mit Sicherheit, was Crysis 2 usw. mit der Karte anstellen), und umgehen kann man das ohne Garantieverlust nicht. Verarschen kann ich mich selber... :lol:
 
Plastikman schrieb:
Diesen 1 GB mehr Speicher sollte man beim Vergleich der GTX 570 und AMD 6970 wirklich nicht einfach unterschlagen. Nur dadurch verbrauchen beide gleich viel Strom.
Und das weißt du woher? Es werden ja auch nicht doppelt so viele Speicherchips verwendet, sondern einfach welche mit höherer Kapazität. Wer sagt dass die zwingend mehr verbrauchen?
Im Vergleich zu älterem GDDR5 auf ner 5870 kann er sogar weniger verbrauchen, da die Fertigung mittlererweile auch modernisiert ist.
 
on der Theorie blieb in der Praxis kaum etwas übrig. Die HD6950
ist nur einen Hauch schneller und effizienter als die HD5870.
Aus dem 2GB Speicher zieht sie erst Vorteile, wenn die Frames
eh schon unter 20 pro Sekunden liegen, weil man zum Auslasten
Auflösungen Jenseits von FullHD und mindestens 4xAA braucht.

Die HD6970 verbraucht wieder so viel wie eine GTX570 und
leistet auch gleich viel. Absoluter Gleichstand. Dieser könnte
immerhin zu einer Preisschlacht im oberen Sektor führen.

Das mit der AF-Qualität ist nun wirklich nicht schlimm, da man
diese ohne merkliche Geschwindigkeitseinbusen auf das nVidia-
Niveau heben kann. Man muss aber eben 3 Klicks investieren.

Allem in Allem bin ich etwas enttäuscht und werde mir vor dem
28nm-Fertigungsprozess sicherlich nichts neues zulegen.
(Wobei ich eh nichts über 150 EUR, oder 100W kaufe.)
 
Zuletzt bearbeitet:
Guter Test CB, mit dem ergebniss haben viele ja schon vorher gerechnet, aber habe mir eigendlich auch mehr erwartet von der Roten. Das man nicht mal in die Nähe der Schnellsten Single GPU kommt finde ich schon enttäschend,
Und da die Fanboy´s über mir ne Singel GPU mit ner Dual vergleichen, sagt mir das sie auch erttäuschtt sind ohne es zuzugeben.
 
togepi schrieb:
warum ist die hd5850 aufeinmal so viel schneller als die 6850? oO
damals betrug der unterschied ca 5%, jetzt teilweise 15!
hat die 5k serie nen enormen treiberboost bekommen oder wie?

drunken.panda schrieb:
Liegt wohl daran, dass man die Filterqualität im AMD Treiber auf Hohe Qualität gestellt wurde. AMD hat die Standardqualität im neuen AMD Treiber runtergesetzt. Diese Filterqualität kommt aber nicht mehr an der von Nvidia ran.

Falsch.
Ursache ist, dass die Balkenwerte relativ (%) und nicht absolut (FPS) angegeben werden
und als 100%-Maßstab unterschiedliche GraKa verwendet werden.

@CB: Ich bin sehr für objektive Tests.
Aber eure Bewertungsformulierung über die 69x0 ist teilweise schon ziemlich krass gewählt.
Ähnlich war es schon bei provozierten Flame-War bzgl. AMDs-Bildqualität. Nvidia flimmert ebenfalls!
 
Zuletzt bearbeitet:
Insgesamt gibts für mich hier 2 interessante erkenntnisse, umso anspruchsvoller die Einstellungen werden umso mehr verschiebt sich das leistungsgefüge zu Gunsten von den 6900er Karten (Ausnahme Tesselation) und die 40nm Architektur scheint hier nun wirklich an ihre Grenzen zu stoßen wenn man den enormen Anstieg der Leistungsaufnahme unter Last bei den Topmodellen betrachtet.

Richtig spannend wird es erst wieder beim nächsten Schlagabtausch wenn man mit dem neuen Fertigungsprozess zurecht kommen muss.

Die aktuell interessantesten Karten bleiben für mich weiter die 6800er da finde ich das Gesamtpaket aus Leistung, Verbrauch, Lautstärke und Preis am attraktivsten.
 
Zuletzt bearbeitet:
gr3if schrieb:
PPS: Eurer Debakel mit irgendwelchen Qualitätseinstellungen ist eine Farce. Früher habt ihr auch 3Dmark06 mit Nvidias neustem Performance Treiber für das "Game" getestet. Das ihr hier bei Amd Karten einfach aus prinzip 5-10% abzieht ohne im Test ganz klar zu machen woher das kommt und wieso ihr das macht ist einfach nur irreführende Werbung.

Aber vielleict äußert sich ja mal jemand aus der Redaktion dazu gerne auch per Mail, dann kann man das an der richtigen Stelle veröffentlichen.

Einfach mal die vergangenen Tests vollständig lesen und nicht nur auf die Balken achten.

Siehe hier:

https://www.computerbase.de/artikel...-radeon-hd-6800.1353/seite-15#abschnitt_fazit

Der anisotropen Filterung müssen wir nach unserem Detailtest leider ein schlechtes Zeugnis ausstellen. Auf der einen Seite wurde die Texturfilterung auf der Radeon-HD-6000-Generation verbessert (das Banding-Problem wurde zum Großteil behoben), auf der anderen Seite flimmern die Texturen aber deutlich intensiver. Der Grund: AMD hat die standardmäßige anisotrope Filterung auf das Niveau von A.I. Advanced der vorherigen Generation gesenkt. Ein für uns unverständlicher Schritt, denn moderne Grafikkarten bieten genügend Leistung um die Bildqualität zu verbessern.

Es gibt zwar Spiele, die den Unterschied kaum zeigen, andere leiden dagegen intensiv an flimmernden Texturen, die den Spielspaß trüben. Immerhin ist es mit der „High Quality“-Funktion möglich, die bisherige AF-Qualität (meistens) wieder zu erreichen. Sprich die Radeon HD 6800 schafft nach manuellem Umschalten immer noch die Qualität der Vorgängergeneration, die Standardqualität ist aber schlechter geworden!

Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.
 
Mmh, bei dem getöse im Vorraus hat jeder mehr erwartet (ich auch), aber mal ohne die ganzen dadurch beeinflussten Vorurteile betrachtet sind die Karten trotzdem sehr gut ud müssen eben über den Preis überzeugen. Vllt. sollte man im Kopf mal das ganze Marketing gelaber ausblenden und sich zurück besinnen, als es noch einfach hies: Die HD6-Series wird ein refresh der HD5-Series und mehr ist es eben auch nicht geworden.

Jetzt wirds für nV Zeit die GTX 560 zu bringen, denn der Preisbereich der HD6950 ist wohl für sehr viele interessant.

Zum Test: Erst mal ein großes Lob! Obwohl die letzte Aktualisierung des Testparcours noch gar nicht lange her ist, war es schon wieder Zeit das ganze auf den aktuellen Stand zu bringen. Kamen eben einige interessante neue Sachen raus.
Was mir sehr gut gefällt, dass nun auch StarCraft 2 und Mafia II mit von der Partie sind. Beide Spiele wären meiner Meinung nach auch im CPU-Testparcour bestens aufgehoben. Ich weis, dass ihr gerade SC2 nicht aufnehmen wollt, weil es vom Intel-Test-Guide empfholen wird, aber: Wayne! Is doch wurscht was die schreiben! Das Spiel haben ja auch extrem viele und wir wollen realitätsnahe Tests. FC2 spielt doch kein Mensch mehr, geschweige denn dessen, dass es alle ganz durchgespielt haben, weil das Spiel einfach *gähn ist.

Aber wie gesagt, mir gefallen die Änderungen hier sehr gut. Weiter so, super Test.
 
@met (#220), CB und die anderen Nvidia-Fanboys:
Wenn Ihr bei den Nvidia-Videos kein Flimmern erkennt, empfehle ich einen Termin beim Optiker.
Und berücksichtigt wie im Video nur stumpft geradeaus gelaufen wird...
 
die 6950 gefällt mir sehr gut nur hab ich schon eine 6870 ... ist zwar traurig das sie nach der sehr guten 5xxxer reihe etwas nachlassen aber ... nächstes jahr geht es von vorne loss :)
 
Habe jetzt auch einige Tests gegen gelesen. Naja leider von Seiten, die hier eher gebasht werden (auch berechtigt). THG und Chip :D - hier kommt die 6970 teilweise sogar etwas schlechter weg als die 570 - jedoch ist dort das Fazit einfach ausgewogener und spiegelt nicht die persönliche Aversion der Redakteurs wieder - eigentlich schade Volker...

MfG
 
ich finde die hd 6950 das etwas runtere produkt aus preis / leistungssicht.
trotzodem macht man weder mit der hd 6970 noch mit der gtx 570 etwas verkehrt.

beide haben ihre vor und nachteile die im test klar aufgezeigt werden. ;)
 
Da der wichtigste Punkt - die Bildqualität - noch immer nicht stimmt bei den AMD Karten, werden auch weiterhin nur Nvidia Produkte ins Haus kommen. Leistung hin oder her: was bringt mir Leistung, wenn ich ständig ein unzureichendes Bild habe? Dann doch lieber einige FPS weniger, aber dafür ein flimmer/flackerfreies Bild.
 
Mister79 schrieb:
Ich vermisse den guten Charlie den alten Fanboy... Wo sind seine Lob gesänge auf die gute AMD 6000 Serie? Naja wenn NV sowas abgeliefert hätte, wäre er schon wieder dabei und würde sagen, hab ich euch doch gesagt.

Thema:

Genau so gekommen wie ich es gesagt habe und wenn Fermi jetzt noch in 28nmm geht dann wird die Leistung im Verbrauch steigen. Also Leistung hoch und Verbrauch eventuell gleich wenn nicht minimal weniger.

Hatte ja mal gesagt, die NV 400 war das, was Vista für MS gewesen ist. Dann kam Windows 7 und alle waren wieder glücklich und übersetzt auf Grafikkarten : 400 Serie = Vista und 500 = W7

Edit: Das ist ein grober Vergleich und diesem muss nicht zu viel Aufmerksamkeit geschenkt werden. Ist mehr symbolisch zu sehen.

Jop und somit schwanke ich nur noch zwischen der 570 und 580. Da kann ich mich nicht entscheiden.

Wobei man nicht vergessen darf das selbst Vista nach einigen Modifaktionen durchaus passabel ist ;) Ich möchte meine 480 GTX nicht missen! Naja mal sehen was so nach der 580GTX noch erscheint...
Jetzt soll ja erstmal die Leistung stagnieren... angeblich...
 
Da muß ich jetzt aber wirklich staunen.
Wie kann man nach so einer guten Serie wie die 5000er nur so einen "Nachfolger" präsentieren.
Manchmal frage ich mich wirklich was da eigentlich gemacht wird.
Schnell genug sind sie nicht, sowieso mit dem negativstempel der schlechteren Filterung belastet geben sie jetzt auch noch ihren bisher grössten Trumpf aus der Hand, die Leistungsaufnahme.
Ich bin ehrlich gesagt enttäuscht von dieser Entwicklung, die ich absolut nicht nachvoillziehen kann.
Mich würde es nicht wundern, wenn Nvidia zum neuen Jahre mit der GTX 560 eine Karte nachlegt, die AMD auch in diesem Segment das Fürchten lehrt.
Sie sind zwar nicht die grossen Sparer, zeigen aber das sie diesen Weg gewillt sind zu gehen und wenn sie jetzt alles richtig machen hat AMD einen schweren Stand bis zum nächsten Round-Up.
Schade, aber so kanns gehen.
 
Zurück
Oben