Test Test: AMD Radeon HD 6970 und HD 6950

Was ist eigentlich so schwer daran, die Selbstbeweihräucherung mal stecken zu lassen in Threads wie diesem hier? :rolleyes:

Wenn hier also jmd eine 6950/70 gekauft hat und Erfahrungswerte präsentiert, dann passt das rein.

Aber was zum Geier hat es mit dem Thema zu tun, ob euch einer abgeht, weil ihr euch ne 570/580 oder 5870 geholt habt oder die Cayman-Karten überspringt, weil ein wechsel von 470/480/5870 nicht lohnt? Ist doch toll, dass ihr mit eurer Karte zufrieden seit, aber das ist 100% OffTopic. Macht halt nen eigenen Thread auf mit dem Titel "ach ich bin so geil, weil ich keinen Cayman gekauft hab und so viel besser gefahren bin"!

Hier geht es um den Chip und was er leisten kann und warum sowie Lob/Kritik am Test! Jedes Mal das gleiche Geseiere in den Threads zu Tests und Neuvorstellungen...
 
zudem verstehe ich nicht, wo das problem wegen den abgefeilten stromanschlüssen liegt. funktional ist das vollkommen irrelevant und optisch auch, da man es unter dem kühler eh nicht sehen kann -.-

ist zwar ne nette info, aber weder positiv noch negativ zu werten. da hat sich ma wer bei der planung verkalkuliert, na und? so lange das ohne konsequenzen bleibt ist das doch wayne.
 
yama03061989 schrieb:
Meinst du nicht das die Publisher für ihre Spiele soviel einnehmen wollen wie möglich? Wenn man jetzt "ausschließlich" für Nvidia optimieren würde, dann hätte man sich selbst ans Bein gepinkelt. Den ATI Freunden und gleichzeitig potenziellen Käufern würde so ein Riegel vorgeschoben. Ich denke eher nicht. Außerdem kann keiner garantieren das ATI nicht doch die ein oder andere Nvidia Karte in den Schatten stellt. Momentan vllt nicht wenn man von Single GPU Karten spricht. Ich denke es wird erst mit der 26nm Fertigung wieder interessant.


Nvidia genau so wenig :) Les dir mal die Pressemeldungen aus der Zeit wo die 4xx GTX Serie rausgekommen ist durch. Nvidia hat genau so zu "knabbern".

Natürlich werden die Spiele auch grob für die Allgemeinheit programmiert. Da wird halt eine Standard Achitektur bedient die NV und ATI sowieso inne haben.

Es geht aber dann um die Sonderfunktionen und um die Details die dann aus einem normalen Spiel dann den überflieger machen und da spielt es sehr wohl eine Rolle und da mischen sich die GK Firmen auch ein. Die Entwickler wären schön Blöde wenn sie die Hilfe von NV oder ATI nicht annehmen. Einerseits gibts Geld für jedes NV Logo welches im Spiel prangert und 2. erhält man den Support um das Spiel in einer besseren Grafik mit noch mehr FPS presentieren zu können.

Ich glaube mich zu erinnern das bei Crysis z.B. ein Entwicklerteam von NV vorort war um beraten tätig zu sein. Nicht umsonst lief Crysis recht gut auf NV-Karten.

https://www.computerbase.de/2007-10/crysis-directx-9-vs-directx-10-im-vergleich/

Bei Hawx 2 das gleiche Spiel, nur mal das bis ENDE durchlesen:

http://www.hardwareluxx.de/index.ph...s/16826-hawx-2-benchmark-veroeffentlicht.html
 
Zuletzt bearbeitet:
Ganz so irrelevant ist das nicht, du hast da jetzt eine nicht isolierte Stelle, wir alle mit ein wenig Grundkenntnissen der Elektrotechnik wissen wozu nicht oder schlecht isolierte Kontakte, Drähte, Anschlüsse führen können. Es sieht auch nicht aus wie gefräst oder gefeilt, eher wie angeschmort oder von Mäusen/Ratten angefressen. Für eine Fräs- oder Feilstelle ist die Arbeit einfach zu Rauh.
 
Zuletzt bearbeitet:
Das ist Kunststoff der eigentlich fürs Spritzgießen gemacht wird. Da wurde nie an ne Spanende Nachbearbeitung nachgedacht. Natürlich sieht es dann so aus wenn man es abfeilt, fräst.
Der Kunststoff wird beim Bearbeiten sehr leicht warm, bie 180°C schmilzt dann der Kunststoff und wird vom Fräser/Feile dann nur noch vor sich her geschoben. Erreicht der Kunststoff den Rand kühlt er sehr schnell aus, und es entstehen diese Franzigen Ränder.

Wenn die Isolierung nicht stimmen würde, würde AMD das nicht zulassen. Es kähmen ja dann Millionen von Grantieleistungen auf AMD zu wenn dasd nicht richtig isoliert wäre. Die Ingenieure haben sich dabei schon was gedacht. Keine Angst.

Wenn Ihr solch einen Ärger über ein solch kleine Bearbeitung macht, dann sag ich euch jetzt nicht was Ihr alle so an eurem Auto für Nachbearbeitungen finden werdet. (Wenn man mal genauer hinschaut)
 
Zuletzt bearbeitet:
ThePegasus1979 schrieb:
...blieb also die Wahl zwischen 5870 und 6950. Die 6950 ist bei der für mich wegen Systemumstellung auf i5 am WE und neuem 1920x1200er HP Monitor interessanten Auflösung von 1920x1200/4xAA/16xAF gerade mal 5% schneller als die 5870, in der Tesselation nicht schneller
Tja, wo hast du das denn her?

http://www.legitreviews.com/article/1488/15/
http://www.tweaktown.com/reviews/3734/sapphire_radeon_hd_6950_2gb_video_card/index5.html
http://www.overclockersclub.com/reviews/amd_hd6970_hd6950_review/12.htm
http://www.neoseeker.com/Articles/Hardware/Reviews/amd_radeon_hd6970_hd6950/8.html

"Die verbesserten Tesselatoren der Radeon 6900 wirken sich deutlich aus, ebenso wie die höhere Geometrieleistung - sie liegt ohne Tesselation fast auf dem Niveau der GTX 580. Diese bricht aber bei aktivierter Unterteilung bei weitem nicht so stark ein. Der Abstand zur 5870 ist dennoch deutlich."

Noch detaillierter:
http://www.pcgameshardware.de/aid,8...klasse-Grafikkarten/Grafikkarte/Test/?page=12

Bezüglich Lautstärke sind die Reviews sehr unterschiedlich. Bei HT4U ist die 6950 unter Last extrem viel leiser als eine 5870.
 
Zuletzt bearbeitet:
OMG das AMD bashing is ja genauso peinlich wie damals das Thermi bashing. Ist aber grade wieder En Vogue. Muss sich ja bei einigen Grünen ganz schön was angestaut haben.

--> Bis auf das leicht bessere AF macht die GTX570 nichts besser als die HD6970 (Rand- und Nischenerscheinungen wie Physx, Cuda, Eyefinty ausgenommen)
 
Dai6oro yap stimmt.Am Anfang hat man Thermi nur gedisst und am ende wollte jeder die Karte haben.Am Ende kamen nur postive sachen raus.

Auser der Verbrauch :D:D
 
ist es eigentlich so, dass bspw. die HD 6950 die 2GB effektiver nutzen kann als bspw. die HD 5870 2GB? Wenn ich die Benchmarks so anschaue, scheint die HD 6950 deutlich häufiger einen wirklichen Nutzen daraus zu ziehen als die HD 5870 mit 2GB. Im Performance- Rating der HD 5870 2GB unter 2560x1600 (4xAA) setzt sich die 2GB- Variante von der 1GB- Variante nur um 2% ab, hingegen die HD 6950 2GB sich von der HD 5870 1GB im aktuellen Test um 15% bei gleichen Einstellungen absetzt.
 
schade das der Arma2-Test fehlt!

In dem wird nämlich deutlich das die 4D-Shader nicht unbedingt besser sein müssen. Eine HD5870 ist in Arma2 dank 5D-Shader schneller als eine HD6970.

Quelle: Hardware.fr

Ich hab mir für mein Arma2-System vorhin daher eine HD5870 2GB (neu) für ~285€ bestellt, ich denke das ist, was die neuen Leistungsfressenden Games angeht, für mich die beste Lösung.
Da ich die Karte meistens auslasten werde um Arma2 zu spielen, die restlichen Games laufen mit der Karte sowieso.
 
Zuletzt bearbeitet:
Ist hier mal jemand von einer 285er GTX auf eine 570/580 oder 6950/6970 umgestiegen?
Ergänzung ()

Die 4D Shader sind ja auch nicht besser. Es ging nur um Einsparung von Chipfläche. Da es aber schwer ist die 5D Shader ordentlich auszunutzen sind die den Kompromiss eingegangen.
 
Es hieß doch am Anfang, dass es angeblich einfacher sein soll diese auszulasten... Wenn ich im mir im Umkehrschluss die Benchmarks von hardware.fr zu Arma2 anschaue zeigt mir dass, das Arma diese wohl exzellent ausgelastet hat.

Der Chip wurde jetzt durch die 4D-Shader nicht gerade kleiner... an anderer Stelle wurden schließlich auch Modifikationen vorgenommen.
Ich frage mich ob diese 10% Mehrleistung nicht auch durch eine größere Anzahl an Shader oder eine höhere Taktung möglich gewesen wären. Vielleicht hat ATI sich insgesamt auch ein noch besseres Ergebnis erhofft als das, was jetzt dabei rausgekommen ist.
Ich bin nach wie vor der der Ansicht, dass "ATI's Weg der kleineren Chips" der richtige ist jedoch hätten die 5D-Shader auch angständig ausgelastet werden können wenn die Spieleentwickler nur gewollt hätten.
Arma2 ist eigentlich kein Paradebeispiel guter Spieleentwicklung. Hier handelt es sich allerdings um eine Ausnahme, zum Thema "Auslastung - 5D-Shader" ist Arma2 wohl ein Paradebeispiel, dass zeigt, das es eben doch möglich ist diese 5D-Shader relativ gut auszulasten.

Gruß,
Seb89
 
Seb89 schrieb:
In dem wird nämlich deutlich das die 4D-Shader nicht unbedingt besser sein müssen. Eine HD5870 ist in Arma2 dank 5D-Shader schneller als eine HD6970.

Genau bei solchen Beispielen, die es übrigens auch hier im CB-Test mit Battleforge und StarCraft2 non AA gibt, ist halt die Frage, ob da die alte 5D Architektur hier effektiver war, oder, was ich stark vermute, der Rückstand der neuen 4D Shader Architektur durch Treiberüberarbeitungen umgekehrt werden kann.

Werden wir wohl erst in 1-2 Monaten Wissen, wenn entsprechende Treibertests hierüber Aufschluss geben.
 
ist es eigentlich so, dass bspw. die HD 6950 die 2GB effektiver nutzen kann als bspw. die HD 5870 2GB? Wenn ich die Benchmarks so anschaue, scheint die HD 6950 deutlich häufiger einen wirklichen Nutzen daraus zu ziehen als die HD 5870 mit 2GB.
Nein, bei HD 5870 2GB haben sogut wie alle Seiten die falschen Settings gefahren. Teilweise gab es zu dem Zeitpunkt gar nicht die Vram Fresser die es heute gibt. Zb. Metro, SC II, F1 etc.
Hätte man mit HD Textur Mod + MSAA getestet hätte man die Stärke der HD 5 2GB gesehen, aber jede hat ja 2GB verteufelt und wollte unbedingt eine 1GB Karte verkaufen. Und die HD 5870 1GB Käufer dürfen das die nächsten Jahre ausbaden... Und das bei dem gesalzenen Anschaffungspreis.
 
Die meisten Spiele werden doch für Nvidias 1D Architektur geschrieben. Da kann AMD noch so viel an der Achitektur bassteln und schrauben, ob 4D oder 5D das bringt nichts, sollange die Programmierer nicht auf die Architektur eingehen und da die Programmierer eh von Nvidia gekauft sind (das wissen wir seit CRYSIS wo zwei NV-Mitarbeiter mit im Entwicklerteam waren) wird AMD da so schnell kein Land sehen.
 
Zuletzt bearbeitet:
wird AMD da so schnell kein Land sehen.
So lange bis sie nicht auch ihre Entwickler zu den Spieleschmieden schicken und auf ihre Architektur optimieren lassen. NV kann man jedenfalls keinen Vorwurf machen, erst recht nicht bei Crysis wo meist AMD Karten schneller sind!
 
Zuletzt bearbeitet:
Zurück
Oben