Test Test: AMD Radeon HD 6970 und HD 6950

*800*

so, nachdem mich die hier getestete graka auf die ich so lange hoffnungsvoll gewartet habe doch so enttäuscht hat, hab ich mir gestern meine Zotac GTX580 geholt und bin damit sehr zufrieden.
schade da ich eigentlich bei ATI bleiben wollte. na mal sehen was sich in zukunft tut und ob sich ein come back to ATI bald wieder lohnt ;) man war ich gestern sauer!
 
Dann kauft doch alle eine GTX 5XX;)

Dann wird die 6970 schneller unter die 300er Grenze fallen.
Dann könnte man sich auch 2 Leisten:evillol::evillol:
 
Haben die Boardparner und AMD sicherlich auch gedacht. Mal sehen was als nächstes für Negativpublicity kommt.

Wie sieht das eigentlich mit diesen Referenzdesigns aus? Werden die PCB-Designs Inhouse bei AMD/nvidia entwickelt oder doch in Kooperation mit irgendeinem spezialisierten Unternehmen , welches die Karten dann auch zusammensetzt bzw. zusammensetzen lässt? Oder anders gefragt: sollte das stimmen mit den angesägten Stromanschlüssen, ist die "Schuld" hierfür in diesem Fall bei AMD direkt zu suchen oder hat da jemand anderes geschlafen? Würde mich aus purer Neugier mal interessieren...
Schlechte Publicity für AMD ist aber dennoch, egal an wem es letztendlich lag :(
 
-=OCC=-Raptor schrieb:
so, nachdem mich die hier getestete graka auf die ich so lange hoffnungsvoll gewartet habe doch so enttäuscht hat, hab ich mir gestern meine Zotac GTX580 geholt und bin damit sehr zufrieden.[]man war ich gestern sauer!

Genau so Leute wie dich meinte ich vorhin. Mickrigen 22" fahren, aber dann ne 580 kaufen. Hättest lieber in nen größeren Monitor investieren sollen von der Preisdifferenz zur 6970 :rolleyes:

580er kaufen die sich bei 22" langweilt... :lol:
 
Wieso denn?
Einfach 55x SSSSSsuperblablaAA aufdrehen und 125x AF und fertig.
Wenn er das voll aufdreht langweilt sich die Grafikkarte nicht.
Vielleicht will er ja bei 22" eben diese Bildverbesserungen nutzen können.
 
@ KAOZNAKE

Nein, sieht man doch in der Sig... er ist ein Schw***Mark-Bencher :D Da muss man natürlich eine 580 haben. Dieses Fail-Geseire hier ist eh nur pubertäres Gehabe. Weil AMD jetzt den pösen Fehler gemacht hat, nicht 60% Steigerung zu bieten, ist die Karte eben fail. AMD darf nicht auf Augenhöhe sein mit Nv sondern nur schlechter oder drüber :rolleyes:
 
@chappy: Mag sein. IMO trotzdem sinnfrei, denn 30"@4AA bringt sicher definitiv deutlich mehr als SSXWFGUSBRENVHFIOREBAAAAA@22".

Wenn dann noch Leute mit TN-Panel über die ach so schlechte BQ der AMD-Karten lästern, fällt mir sowieso nur noch eins ein: :stock:
 
Zum anstehenden Lüfter und den "angesägten Stromstecker via Lüfter" gibts Bild .
Naja, also ich fand die erste präsentiere Fermi-Karte als Laubsägearbeit auch recht knackig.
Wie schnell doch die Zeit vergeht und das Gedächtnis aussetzt...

104485-Tesla-fake-1.jpg
 
OldDirtyBastard schrieb:
Zeig mir mal denn offiziellen link von amd für die HD 6900, mal sehen was du da findest!

Nichts! Für die 68x0 wird ein 10.10 angeboten mit dem Hinweis, dass der 10.11 nicht geht und man auf 10.12 warten soll... die 69x0 wird nicht erwähnt. Ist aber auch normal, dass eine neue Karte erst mal einen eigenen "speziellen" Treiber hat und nicht vom Standardpaket unterstützt wird. Ist jedenfalls nicht die erste Karte bei der das der Fall ist und ist auch nicht AMD-Exklusiv.

Hätte man deiner Meinung nach mit dem Test warten sollen bis 11.1 die 69x0 offiziell unterstützt? Der kommt aber erst nächstes Jahr...
 
ReReform schrieb:
@ KAOZNAKE
Weil AMD jetzt den pösen Fehler gemacht hat, nicht 60% Steigerung zu bieten, ist die Karte eben fail. AMD darf nicht auf Augenhöhe sein mit Nv sondern nur schlechter oder drüber :rolleyes:

Naja ich dachte auch zuerst toll schöner grosser Kühler, aber durch zwei übereinander verbauten DVI wo sowieso nur einer voll belegt ist blockiert man sich den Luftstrom , dann halt der wohl zu grosse Kühler der bis kurz vor dem Radial endet, ich bin nur Industriemechaniker aber ich behaupte das 10mm mehr abstand zum Radial dem Lüftstromverlauf verbessert hätte und der Kühler besser arbeiten würde.

Man hätte lieber 1cm längers Layout in Kauf nehmen sollen sowie ein DVI-I hätte auch gereicht, DVI-I , HDMI1.4a und 2x DP hätten vollkommen gereicht.
 
Das mit dem Lüfterfail bei AMD sehe ich ja jetzt erst ... sowas dummes gabs glaube ich noch nie. Megalol
 
KAOZNAKE schrieb:
Ich sagte nur das die 3970 nicht billig ist, weil man für das Geld schon ne XBOX oder von mir aus n großen Fernseher kaufen kann. Da ist dann wohl bissl mehr Material dran als an ner Graka, meinst du nicht? Und wenns dir nur um den Preis geht, die 6990 wird die 580 in dieser Beziehung locker schlagen ;)
Ich denke mal du meinst die 6970 oder?
Und wie gesagt die Dual GPU Karten haben eben den enormen Nachteil das sie ausser für benches nicht wirklich zu gebrauchen sind.

KAOZNAKE schrieb:
Bloß das Plan B nie so gut sein kann wie Plan A.
Hmm also das würde ich nicht sagen, siehe z.b. Nintendos Wii.
Ausserdem ist es ja nicht so das nach dem enormen Problemen die selbst 40nm schon verursacht haben (gerade AMD war davon ja betroffen) man nicht vorhersehen konnte das es 2010 mit <40nm nichts mehr wird. Das war doch schon Q3 2009 ansehbar als TSMC nichtmal 40nm in den Griff bekam und das als technologisch am fortgeschrittenste Fab auf dem Markt.

KAOZNAKE schrieb:
Es kommt ja nicht drauf an ob man ne Fabrik unterm Hintern hat (was sich nur ab ner gewissen Größe rechnet die AMD nie hatte dank INTEL). Und mit Biegen und brechen (sprich der gleichen Die-Size und Stromaufnahme wie NVIDIA) hätte man hier sicher die Krone geholt. Die Frage ist doch ob es Sinn macht oder nicht. Kann keiner sagen.
Wieso dank Intel? Die Preisabsprachen begannen wann? Ungefähr um die Jahrtausendwende und AMD gibts seit wann? Glaub 1979 oder sowas in die Richtung (bin zu faul auf Wiki das genau nachzuschlagen). Also hatte AMD genug Zeit groß zu werden.


KAOZNAKE schrieb:
Sehe nicht wo die HD5000 ein Ausrutscher war? Darauf wurde seit der HD3000 konsequent hingearbeitet. Barts war ein weiterer Schitt in die richtige Richtung, und "Plan-B-Cayman" ist eben nicht ganz so stark wie viele erwartet hätten (aber in hohen Auflösungen trotzdem erheblich schneller als ne 5870). Im Prinzip herrscht wieder das alte Prinzip. AMD ähnlich schnell wie NVIDIA, aber deutlich günstiger. Zudem kann ich mich noch dran erinnern, dass jede Menge Leute bei der 5870 auch enttäuscht waren, heute sagt kein Mensch mehr was. Unerfüllte Erwartungen sind eben ein hartes Pflaster ;)
Ein Ausrutscher in der Beziehung das ja alle AMD Jünger meinen das High End eh nie das Ziel war, in der Beziehung war also die HD5870 ein positiver Ausrutscher, oder nicht? Wenn nicht dann streben sie also doch die prestigeträchtige High End Krone an und haben das Ziel meilenweit verfehlt mit Cayman. Egal wie man es dreht und wendet irgendwas passt da nicht.

KAOZNAKE schrieb:
Naja, wie auch immer. Wenn Cayman 2% schneller gewesen wäre (bei 2560er Auflösung aktuell nur 2% langsamer als die 580), dafür aber 100€ teurer, wäre also deine Definition von Highend erfüllt gewesen? Und dann hätte NVIDIA im Highend auch nichts mehr zu bieten gehabt? Kann ich nicht nachvollziehen die Logik...
Ja damit wäre nicht nur meine Definition von High End erfüllt sondern die generelle Definition des Buzz Wortes. High End ist eben im Bereich Grafikchips der schnellste Chip ohne Rücksicht auf "Verluste" wie Stromverbrauch, Preis oder Lautstärke.
Das was du meinst ist ein P/L Chip und hat nichts mit High End zu tun. Siehe Intels Extreme Edition Chips die für wenige % Mehrleistung gleich zig hundert Euro mehr kosten (immer um die ~1k Euro). Ob das ganze Sinnvoll für einen Otto Normal consumer ist steht ja auf einem anderen Blatt und habe ich niemals behauptet. Ich selbst würde mir es auch nicht kaufen weil ich es mir noch nicht leisten kann.

KAOZNAKE schrieb:
Finde ich nicht. Die 580 ist seit der 6970 überteuert, wenn man da noch weiter dran schraubt, kauft das Ding gar keiner mehr (Übertreibung). Bei konstanter Verfügbarkeit der 580er können die Preise nur nach unten gehen - wenn das Ding allerdings billiger wird und darunter die Verfügbarkeit leidet, wird das natürlich nicht eintreten :)
High End ist doch per Definition schon immer überteuert, irgendwie glaube ich reden wir aneinander vorbei. Du sprichst von sinnvollen Investitionen und P/L und ich spreche von Luxus und High End. Ähnlich Maserati vs VW, der Maserati kann auch nich viel mehr in Anbetracht dessen das man in der Stadt eh nur im Stau steht, es ist einfach Luxus/High End und keine Vernuftsentscheidung. Du wirst mit einem VW Golf genauso ans Ziel kommen (in der Stadt wahrscheinlich sogar in der selben Zeit) wie mit dem Maserati.
 
Es scheint auch Karten mit dem "falschen" Speicher zu geben.
So finden sich statt dem schnelleren -ROC auch langsamere -T2C Module auf den 6970er Karten.
Da wird eine 6970 zerlegt und findet -T2C Module vor, welche man dann fälschlicherweise als die schnellen ausgibt.
Bei VR-Zone stutz man weinigstens schon einmal.
Auf der Pro - Amd Seite bemerkt man es nicht einmal, vielleicht will man es auch nicht bemerken.
 
Irgendwas stimmt da doch nicht, bzw. muss mächtig schief gegangen sein.

+23% Transistoren
+9% Taktfrequenz ( Mittel aus Chip und Speicher)
+10% "Effizienzsteigerung"
--------
+47,5% Leistungssteigerun - theoretisch

Davon ist die 6970 gegenüber der 5870 (auf die sich die Relationen oben beziehen) aber meilenweit entfernt. Hätte man die alte Architektur im gleichen Ausmaß erweitert (Transistoren und Taktfrequenz) wäre man notwendiger Weise zu einem weit besseren Produkt gekommen.

Also entweder das Ganze braucht erst mal die richtigen Treiber, oder man hat sich total in den Tiefen der Fertigungstechnik verloren..
 
So finden sich statt dem schnelleren -ROC auch langsamere -T2C Module auf den 6970er Karten.

Naja, solange die Karten stabil laufen, mit den versprochenen Taktraten (1,375Ghz für den Speicher), sehe ich da kein Problem. Die T2C-Chips sind von Hynix für 1,25Ghz spezifiziert, die R0C-Chips mit 1,5Ghz.
 
http://www.3dcenter.org

News des 15. Dezember 2010


"Es läßt sich hieran die These aufstellen, daß Radeon HD 6950 & 6970 eventuell komplett an ihrer ROP-Leistung oder Speicherbandbreite hängen (letzteres ist wahrscheinlicher) und daß daher die Verbesserungen an der Architektur gar nicht zum tragen kommen, so lange man ROP-Leistung oder Speicherbandbreite nicht erhöht."




Dann kommt doch hoffentlich die HD7XXX mit 384BIT SI oder gleich 512Bit SI...

In der 28nm Fertigung sollte ja Platz genug sein um solch ein SI zu integrieren!

65x65 = 4225
55x55 = 3025 (~ minus 28,25%)
40x40 = 1600 (~ minus 47,10%)
28x28 = 784 (exakt minus 51,00%)

Sieht doch ganz gut aus - Und ganz nebebei der größte Sprung seit Jahren!
 
Zuletzt bearbeitet:
Hart erst Verspätung, dann nur 10% schneller bei erhöhtem Stromverbrauch als HD 5870 nach 1 Jahr Arbeit. Jetzt das mit dem abgesägtem Stromstecker und die Differenzen der einzelnen Karten in der Speicherbestücktung was das OC Potenzial wohl variieren lässt.

^^

SO nen Griff ins Klo hätte ich nicht erwartet.
 
man wird mit den R0C höhere Taktraten erreichen..... Auch nicht richtig meiner Meinung nach. Naja Reste müssen raus aus dem Lager, deshalb kaufe ich generell nicht mehr bei Release Hardware zu oft ins Fettnäpfchen getreten.
 
Zurück
Oben