Test HD 6970 und 6950 im Test: Zwei neue AMD-Radeon-Grafikkarten die enttäuschen

Diablow51 schrieb:
bei nvidia ist der bereich absolut "ruhig"

Auch die Nvidia flimmert bei diesem Video (wenn auch deutlich weniger als die Konkurrenten)!
Im realen Spielalltag wird man den Unterschied wohl nur ausmachen, wenn man bei älteren texturlastigen Spielen genau darauf achtet.
In Foren wird dieses Thema eindeutig zu stark gehypt!
 
Mal im ernst: Hats einen gewundert?! Spätestens nach der HD6870 war mir schon klar (hatte ich vor zwei Tagen auch schon in dem Thread zu den Spezifikationen geschrieben, der dann leider gelöscht wurde...), dass die HD69x0 nur ein Testlauf für die neue Architektur sind, genauso wies die HD4770 für die 40nm war. Die HD4770 hat auch mehr oder minder gefloppt, zwar gute Ansätze, aber hatte noch Krankheiten (Verfügbarkeit lass ich ejtzt mal außen vor). Auch die GTX 480 war nur eine Notlösung, um nach jahrelanger Entwicklung überhaupt mal was rauszubringen und um AMD mit der HD5870 nicht zu viel Spielraum zu lassen. Die GTX 480 war auch nicht fertig und erst jetzt ist die GTX 580 das, was der Fermi von Anfang an sein sollte. Nvidia hat auch ewig gebraucht. Und meiner Meinung nach ist jetzt der Cayman XT einfach nur ein Test, um Erfahrungen mit den neuen Shadern zu sammeln und Teile der Architektur zu testen. Nicht mehr, nicht weniger. Und Testläufe beim Kunden gabs schon oft, nicht nur bei Hardware, Stichwort "Das Produkt reift beim Kunde" (und das gilt nicht nur für Obst vom Aldi :D )
Also abwarten und Tee (oder Glühwein / Kinderpunsch / Kaffee / Bier/ ...) trinken und warten, bis dann der ausgereifte Chip mit der komplett neuen Architektur da ist. Dann könnt ihr drüber herziehen, wenn AMD den verbockt.
Jetzt über nen Testlauf herziehen bringt nix! Der is einfach nur da, um Probleme festzustellen und um einfach ein bisschen Kohle aus einem Übergangschip zu machen. Is zwar mies, aber so is es halt nunmal. Da is keiner von beiden großen GPU Herstellern besser, weder AMD noch Nvidia!

Und das es nicht falsch verstanden wird: Ich bin AMD gegenüber eigentlich durchaus zugeneigt und bin auch ein bisschen enttäuscht, dass das Teil doch wirklich nur nen "Übergangschip" ist, aber wayne? Die HD5870 ist immer noch ne klasse Karte und hat kaum Nachteile. Die 30" Kollegen, die dringend auf die 2GB VRAM angeweisen sind sollen sich dann halt ne 2GB Version holen. Übertaktet schafft die HD5870 2GB dann auch locker ne HD6970 bei nem ähnlichen Preis.

So, dass wars von meiner Seite :)
 
Das mit dem Geländer ist mir erst später aufgefallen. So starkes flimmern sah ich auf meiner Karte noch nie. Aber jeder guckt anders ne?

Wenn einer Arm ist dann bist du das! Das in dem Video gezeigte ist eindeutig laut dem Video-Titel GForce 100 und es flimmert wie Arsch.

Deine Beiträge sind das dümmste gezänk, dass ich hier bisher gelesen hab.
 
Jetzt haben wir offiziel was wir schon wussten.

P/L passt
 
Athlonscout schrieb:
Auch die Nvidia flimmert bei diesem Video (wenn auch deutlich weniger als die Konkurrenten)!
Im realen Spielalltag wird man den Unterschied wohl nur ausmachen, wenn man bei älteren texturlastigen Spielen genau darauf achtet.
In Foren wird dieses Thema eindeutig zu stark gehypt!

stimmt auch wieder.ich hab ne 4870 und ohne die aufgreifung des thema in den news hier etc.. wäre ich niemals darauf aufmerksam geworden.
 
Erst bei 2560x1600 schafft es die Radeon HD 6950, sich um 15 Prozent (4xAA) bzw. gar 42 Prozent (8xAA) absetzen, was aber ausschließlich am doppelt so großen Speicher liegt.

vielleicht wär es sinnvoll gewesen die 2gb varianten ins testfeld mit aufzunehmen
 
Finde die Werte auch enttäuschend.
Für die Befeuerung eines 24 Zoll ist die GTX 570 m.E. die beste Wahl und der 6970 bei 1-2 Bildschirmbetrieb vorzuziehen - vorausgesetzt sie kostet nicht exorbitant mehr. AMD kann eigentlich nur noch über den Preis die Karte interessanter machen.

Die 6950 wird mit der GTX 560 bald Konkurrenz bekommen.

Ich finde den Test auf CB gut und nicht wie einige hier vermuten gekauft. Die Werte der Leistung und auch der Verbrauch / Lautstärke sind +/- sehr Deckungsgleich mit den anderen Tests - CB ist da in der Mitte wenn man alle Werte vergleicht!
 
Zuletzt bearbeitet:
@hmmmm und andere

Ich hatte schon geahnt, dass mein verlinkter Test zu der Bildqualität zwischen AMD und Nvidia zu einem unschönen "gebashe" führen könnte.
Hatte jedoch gehofft, dass hier einige so schlau sind und nicht wieder anfangen sich gegenseitig anzugehen.

Deshalb mein Aufruf: Bleibt bitte , soweit es eben geht, sachlich und fair und freundlich zueinander. Danke!

Wie ich schon schrieb neigen bestimmte Texturen mehr zum flimmern als andere.
Auch eine Nvidia ist vor flimmern nicht gefeit und hat glaube ich im Moment auch niemand angezweifelt.

Anscheinend tritt dieses Phänomen jedoch versärkt bzw stärker bei AMD auf.
Nat. sollte man das nicht überbewerten, allerdings sind sich vom Preis als auch von der Leistung beide Hersteller mittlerweile so ähnlich, dass man eben Differenzierungspunkte heraussucht, an dem man sich neben dem Preis klar abgrenzen kann.

Sowohl als Hersteller, als auch Testender.

Ein Beispiel:
Bei Nvidia wurde und wird teilweise noch der erhöhte Stromverbrauch aufgeführt.
Im Gegenzug die weniger gute Bildqualität bei AMD-Karten.

Hoffe, die Lage beruhigt sich jetzt wieder:)
 
Wow. Im Schnitt ca. 46 Posts pro Std. ;)

Also von den neuen AMD-Karten bin ich - und viele andere - schon ein wenig enttäuscht. :( Die haben sich den Vorteil, den sie anfangs mit der HD5xxx-Serie hatten, fast schon zunichte gemacht. Zumindest im Highend-Bereich. Die GTX570 ist aktuell der optimale Kompromis im Highend-Bereich. Wenn die GTX560 zudem eventuell bald auf dem Markt kommt und die gleiche Preis/Leistungs-Krone der GTX460 einnimmt, dann sehe ich dunkelgrau für AMD. ;)


MFG Matze
 
Das mit dem mehr Geflimmere bzw. schlechtere Bildqualität bei AMD/ATI stimmt eindeutig NICHT! Trotzdem reitet jeder drauf herum. Total lächerlich ist das.
 
Naja also irgendwo ists langsam lächerlich.
Natürlich hätte man mehr erwartet, aber wozu braucht man immer mehr Leistung??
Selbst jetzt tuts noch ne GTX260 oder ATI 4870 die man damals gekauft hat, solang man nicht immer FULL HD + DS und max. AA zockt.
Und wenn die tolle Spieleindustrie mal endlich beginnen würde die Spiele gescheit zu optimieren, würden wir heute noch mit ner 8800GT auf FULL HD mit max AA zocken können. :evillol:(so ungefähr)
Und wer Leistung für mehr als nur zum zocjen braucht, sollte lieber weg bleiben und sich richtige Karten ala: Tesla oder FirePro holen.
 
hmmmmm schrieb:
Das mit dem Geländer ist mir erst später aufgefallen. So starkes flimmern sah ich auf meiner Karte noch nie. Aber jeder guckt anders ne?

Wenn einer Arm ist dann bist du das! Das in dem Video gezeigte ist eindeutig laut dem Video-Titel GForce 100 und es flimmert wie Arsch.

Deine Beiträge sind das dümmste gezänk, dass ich hier bisher gelesen hab.

Jo und wegen solcher Postings wurde der Diskussionsthread zum Bildqualitätsartikel dicht gemacht. Du siehst es nicht, andere sehen es und gut ist. Andere Hardwaresites haben sich auch dem Thema angenommen und ziehen ein ähnliches Fazit.
 
Zuletzt bearbeitet:
zitat Micha83411:

Du checkst es nicht oder? Das ist halt das Testsystem, soll CB nur wegen dir immer alles umbauen?

Das Testsystem ist so hoch getaktet um eine Limitierung seitens der CPU auszuschließen,

falls stärkere Grafikkarten kommen um hier auch noch mit den anderen karten (ältere) ein vergleich der Performance ziehen zu können.

Ist doch schön das dein System weniger braucht aber wie gesagt CB kann doch nicht

wegen jeder karte das System anders takten!? weist du was das für ein Aufwand wäre und

das man dann gar keinen überblick mehr hätte.
__________________
ASUS p7p55d evo ; i5 750@12Ghz weil 4x3=12^^@Noctua NH-D14 ; 4Gb Corsair xms3 1600 ; be quiet Straight Power BQT CM E8-480W ; Aerocool T40;GTX460 @Alpenföhn Heidi@ 710/1420/1800@0,837v,1TB Hitachi ;Samsung SyncMaster T220 Lcd 1650x1050.Notebook : Msi X340

schau dir mal den i5 760 bei performancerating spiele (1680x1050) an und setzt den auf 100%.2% unterschied zum i7 975:
https://www.computerbase.de/artikel...est.1374/seite-29#abschnitt_performancerating

ich glaub nicht das beide cpus bei 3800 oder 4000 weiter auseinander sind.

dann schauste dir mal den stromverbrauch an:i7 975 63% mehr strom
https://www.computerbase.de/artikel...est.1374/seite-30#abschnitt_leistungsaufnahme

aber um dir entgegen zu kommen:nen i5 @12 ghz würd mir auch schon reichen.da gäb es bestimmt keine prozessorbremse in tests.


also ich ruf gleich meinen anwalt an und computerbase bekommt ein i7 9xx unterlassungsklage für ihre tests.was meinst du was die plutoniumatömchen ackern müssen für diese art von tests?


ich seh aber schon eine trendwende hier im thread wo einige schon über eine pedition nachdenken.dualcore-oldschool quad-quad-hexcore im test aufzunehmen.ich würd sabbern..

ist eigentlich noch einfacher dann können sie den prozessortest direkt mit dem grafikartentest verschmelzen und brauchen nur 1-2 im jahr alles testen und können den rest im jahr frei machen.das wär doch was,oder?


jetzt mal im ernst:können hier einige nicht auf normalen niveau diskutieren?ignoranter und schnöseliger wirds aber nicht?

Mardy2802

Zitat:
Als Redaktion sollte man mMn nach schon vom restlichen Testsystem her up to date sein und da ist man mit einem popeligem Q9450 auf 3,6GHz fehl am Platz bzw. hinter der Zeit. Und die Relationen des Verbrauchs des zu testenden Objekts sind doch sehr gut erkennbar.


zitat Fortatus:

Zum 1. Kommentar: Und wenn man sich den Test zur Leistungsaufnahme ansieht, merkt man, dass das der Verbrauch fürs gesamte System ist. Da sind deine eigenen Werte irrelevant. Es geht darum die relative Leistungsaufnahme der Karten zueinander abzuschätzen. Und wenn bei solchen Karten die CPU limitiert, dann ist die Leistung nicht mehr vergleichbar. Also: Maximale CPU-Power, damit mehr Gesamtverbrauch. GK-Verbrauch abschätzbar und Leistungsdaten nicht CPU-abhängig.
 
Und bei GForce 100 sieht man es dann nicht oder was?? LOL!!! Was eine Geldspende von Nvidia nicht alles bewirkt. Wahrscheinlich wurde durch solche Spenden das ganze erst zum Diskussionsthema.
 
Bei den Neuerungen fehlt noch, dass die HD69x0 ein Dual-Bios haben.
Dafür ist übrings der Schalter:
Cayman_19_rs.jpg
 
Hallo
Also wenn ich mir die Benches mit 8xAA und 16xAF anschaue ist doch die AMD 6970 viel schneller als die NV 570:rolleyes:?
Aber entäuscht bin ich trotzdem von AMD. Dachte da kommt ein Kracher.
Wird wohl wieder Zeit eine "Grüne" zu verbauen. Habe seit der GF3 ti500 nur noch ATI/AMD in meinem Rechner verbaut.
 
Crackking schrieb:
Naja also irgendwo ists langsam lächerlich.
Natürlich hätte man mehr erwartet, aber wozu braucht man immer mehr Leistung??
Selbst jetzt tuts noch ne GTX260 oder ATI 4870 die man damals gekauft hat, solang man nicht immer FULL HD + DS und max. AA zockt.
Und wenn die tolle Spieleindustrie mal endlich beginnen würde die Spiele gescheit zu optimieren, würden wir heute noch mit ner 8800GT auf FULL HD mit max AA zocken können. :evillol:(so ungefähr)
Und wer Leistung für mehr als nur zum zocjen braucht, sollte lieber weg bleiben und sich richtige Karten ala: Tesla oder FirePro holen.

Auf meiner 4870 X2 konnte ich WoW im Stromsparmodus spielen bei 500 MHz. Trotzdem hatte ich noch 50 bis 60 fps und 16xAF/8xAA mit Edge Detect aktiv. :D
 
Tatsachen zu leugnen bringt nichts, insbesondere wenn das dann auch so patzig und argumentbefreit von sich geht.

Zum Verständnis: flimmernde Geländer werden vom AF grundsätzlich nicht erfasst, das kann man nur mit TSSAA/TMSAA (nvidia) bzw. AAA (AMD) eindämmen, weil das Alphatest-Texturen sind, auch mit 8xMSAA bekommt man sowas nicht weg. Es geht darum, dass abgesehen davon die AMD-Karten zum Flimmern unterschiedlich stark bzw. vom Spiel abhängig neigen, dies ist dokumentiert und belegt, u.a. hier bei CB und ht4u, sogar AMD hat das zugegeben und manchen Redaktionen einen angepassten Treiber zur Verfügung gestellt. Dass dieses einen aber nicht stört, sollte einen nicht davon abhalten, anderen zuzugestehen, dass diese den Befund so nicht mögen und darin Verbesserungspotential bzw. einen Kritikpunkt sehen.

Sehe ich hier noch einen BQ-Flame, setzt es Karten!
 
@ rumpel01
Wie siehts denn mit dem Schattenflimmern von NV Karten aus? Beispielsweise bei BC2 zeigt sich das bei mir sehr eindeutig.
 
suessi22 schrieb:
Was wie - ich versteh kein Wort. Überprüfe die Zahlen bitte nochmal!

Transistoren:
HD 6950: ca. 2,64 Mrd.
HD 5870: ca. 2,15 Mrd.

2,64/2,15 => 22% differenz

Rating - 1680x1050 8xAA/16xA:
HD 6950: 87,5
HD 5870: 88,3

87,5/88,3 => 1% differenz

Rating - 1920x1200 8xAA/16xAF
HD 6950: 90,0
HD 6970: 100,0

100/90,0 => 10% differenz (in anderen Tests 9-14%)

Prüfe:
- HD 5870 billiger in der Herstellung
- 6950 fast gleich schnell wie 5870
- 6970 ca 10% schneller als die 6950

Passt. Fragen?
 
Zurück
Oben