Test Test: ATi Radeon HD 5970

An diesem einen Test von Techpower dingens da auf Seite vier oder so glaub ich mit dem Crossfire HD5970 sieht man sehr gut, dass nochmal sone fette Grafikkarte gar nix bringen würde, nur 20 % Leistungsschub, oft sogar nur 10 %. Das obwohl zwei fette Grakas extra drin sind. Ist ja schon hard wie schlecht CF dann "zusammenarbeitet".
 
Sich als Hardware-Redakteur mit AMD/ATI-Fans auseinandersetzen zu müssen ist der schönste Beruf - gleich nach dem Papst :D

Erinnert mich an die 70/80er, als die Manta-Fans mit Fuchsschwanz und Leichtmetallfelgen die Dorfstrasse rauf und runter gegondelt sind.:evillol:
Heute passiert das stellvertretend im Netz rauf und runter.
 
Lithium-Ion schrieb:
An diesem einen Test von Techpower dingens da auf Seite vier oder so glaub ich mit dem Crossfire HD5970 sieht man sehr gut, dass nochmal sone fette Grafikkarte gar nix bringen würde, nur 20 % Leistungsschub, oft sogar nur 10 %.... Ist ja schon hard wie schlecht CF dann "zusammenarbeitet".

das liegt schlicht und ergreifend daran,dass die cpu gnadenlos limitiert.


gruß
 
Ball_Lightning schrieb:
Die Tabelle sagt gar nichts aus, mit einer 5970 würde das ganz anders aussehen.

Wirklich?

Aus den CPU-Tests geht folgendes hervor:

CB CPU-Tests schrieb:
[...]Bei Spielen wird auf die Auflösung von 1.280 x 1.024 Bildpunkten zurückgegriffen, da bei höheren Auflösungen quasi nur noch die Grafikkarte ein Rolle spielt[...]

Bei 1280x1024 würde das Gesamtrating anders aussehen, wenn man ne stärkere Graka einsetzt? Das möchte ich weitestgehend anzweifeln.
 
buntstift23 schrieb:
Natürlich ist das kompliziert, aber alles möglich. Deshalb ist es doch so blöd, die 1GB Version zu releasen, warum wurde nicht direkt zukunftsorientiert entwickelt und auf 1,5 oder 2GB spekuliert.

keiner,der sihc eine grafikkarte für 600€ kauft,wird diese länger als 2 jahre nutzen. und da die konsolen noch bis 2012 laufen,wird es auch nix ultra speicherintensives für den PC mehr geben. Oder nenne mir einen Grafikkracher exklusiv für den PC der entwickelt wird?

Crysis 2 ist ein mutlitplattformTitel, die Cryengine 3 ist nur eine optimierte (auf die schwächere Hardware der ps3 und xbox360) CryEngine 2 und wird weniger Anforderungen an die Hardware stellen..sonst gibts nix. Noch gibt es ein Szenario wo eine Radeon mit 1gb wegbricht oder eins wo eine 2gb Version irgendwo einen spürbaren Vorteil bringt (im consumer bereich).

also, wodurch sützt du deine Anmaßung?

gruß
 
In Crysis Warhead erzielt man mit dieser Karte praktisch die doppelte Leistung einer GTX 285 :) Lautstärke und Leistungsaufnahme der HD 5970 halten sich in Grenzen, die Temperaturen sind ok.


Zur Preisliste:
Die HD 5850 kostet rund 220€, die HD 5870 rund 330€ ;)
 
buntstift23 schrieb:
Naja... ich war früher ATI Freund ... aber mir ging da vieles um den Treibersupport auf die Nerven. Nun bin ich voll und ganz grün ^^

^^
buntstift23 schrieb:
Kantenglättung und AnsiFilter sind beides Nachbearbeitungseffekte die den Speicher nicht belasten.

Kantenglättung ist ein Effekt der ganz enorm den Speicher belastet, und sich in Verbindung mit höherer Auflösung noch viel mehr verdeutlicht.

buntstift23 schrieb:
Dennoch. 1024MB werden für 1920x1200 schon knapp... was wirds dann erst bei größeren Auflösungen oder bei DX11 Texturen? 8 Monate warten bis die Hersteller mehr RAM rausbringen weil es entdlich vom Refdesign abweichende Karten gibt?
Das hingt doc hschon von vorne an.

Denk mal bitte nach, und informiere dich; wenn es jetzt in nur einer wenigen Hand voll Spielen, bei 2x 1024MB RAM, unter extremen Bedingungen knapp wird, welchen Sinn machat es dann, das Referenzdesign mit 2x 2GB auszustatten, und damit alle Karten unnötig teurer zu machen, weil unnötig viel Speicher verbaut wurde?

buntstift23 schrieb:
NVs FERMI geht doch auch direkt mit mit 2GB und 3 GB ins Rennen.

Tun sie das? Woher weisst du das? Hast du mehr Informationen als der Rest der Welt, die nur etwas über die GPGPU Fermi sagen können, da über die Consumer Hardware noch nichts veröffentlicht wurde?

buntstift23 schrieb:
Dazu die kleine Bandbreite des Interfaces. Grausam. Flaschenhals war gestern... Pimpenttenhals ist die Zukunft ...

Mal abgesehen davon, das die Behauptungen es limitiere dieses hier, und jenes da, meist nur eine relativ wage Deutung der Benchmarkergebnisse darstellt, aber nehmen wir mal an, es wäre wirklich so; Limitiert bei der Hardware nicht sowieso immer irgendwas? Die GPU Leistung, der Speicher, die Speicheranbindung, die Schnittstelle, what ever?

Würde es hier und da keine Limitierungen geben, wäre die Hardware unendlich schnell.

Und wenn wo hier oder da eine Limitierung ausserhalb der GPU nicht zu vermeiden war, liegt das mit Sicherheit auch nicht an der Unfähigkeit der Entwickler, weil sie nicht anders konnten, sondern weil es wohl auch nur schwer anders möglich gewesen wäre (bezüglich Aufwand und Kosten).


buntstift23 schrieb:
Ohne das ständig mit anderen KArten vergleichen zu müssen, ist es doch kein Fortschritt oder? 40nm und schneller. Schön und gut, aber da wäre mit paar Monaten Entwicklung doch wesentlich mehr möglich gewesen.
Speicherinterfaces sind in der Entwicklung schweineteuer, aber 256bit pro GPU ist ein Witz.
In ein paar Monaten könnte schon wieder die nächste Generation kommen.
Und die Karte ist nicht nur 40nm und schneller, sondern verglichen mit den älteren Dual GPU Karten auch sparsamer, bietet DX11, Tesselation, 2 DXVA Einheiten, und co.

Und ob 256bit pro GPU ein Witz ist, kannst du gar nicht beurteilen. Du entwickelst nicht die Karten, bist nicht dafür verantwortlich, kennst nicht die spezifikationen, die Leistungsdaten, die Zahlen und Fakten hinter die Karte und du mußt auch nicht die Kostenfrage beantworten.
 
Bei anderen Tests wird auf die Mikroruckler eingegangen, ich finde das schon wichtig weil die Karte keineswegs so schnell ist, dass es kein Thema ist. Mit so einer Karte spielt man nicht auf nem 22 Zoll, dazu kommt noch, dass keine AMD CPU schnell genug für die Karte ist. Wenigstens wissen wir jetzt, dass dies das Ende der momentanen Fahnenstange ist.
 
bringen sie nicht zwangsläufig...letzten endes ist es immerhin das gleiche.. wer hat dir das denn erzählt?
 
Zu pauschal @ God CAst. Keine Phenom 2 x4 CPU ist für diese Karte zu lahm.
 
@AvenDexx
Bei dem verlinkten CPU Test limitiert die 9800GTX zu stark, deshalb sind dieBalken dort nicht aussagekräftig. Würde der Test erneut mit einer 5970 durchgeführt, würde es schon ganz anders aussehen.
Beim neuen Testsystem hoffe ich auf ein Socke 1366 System, da man bei CF und SLI 2x PCI-E 16 Lanes hat, im Gegensatz zum Sockel 1156.
 
Zuletzt bearbeitet:
naja, so unsinnig finde ich eine 5970 mit nem phenom gar nicht. haut man ordentlich MSAA usw rein, limitiert schnell wieder die karte. und dort wo die cpu limitiert hat man dann eh weit über 60fps.


gruß
 
@CB: Was mir aufgefallen ist: Warum wurde die Leistung bei aktivierten DirectX 11-Features nicht getestet? Immerhin gibt es schon den Unigine Heaven-benchmark, da hätte man gut schauen können, wie die aktivierte Tesselation sich auf die fps auswirkt. Allgemein wären dann auch Vergleiche zwischen 2x5870 CF und 1x5890 unter DirectX 11 möglich gewesen.
 
AvenDexx schrieb:
Wirklich?

Aus den CPU-Tests geht folgendes hervor:

Bei 1280x1024 würde das Gesamtrating anders aussehen, wenn man ne stärkere Graka einsetzt? Das möchte ich weitestgehend anzweifeln.

Wen interessiert 1280x1024 bei einer HD5970? Du weisst genau, was ich gemeint habe.

Bei den CPU tests hat man die Auflösung auf 1280x1024 limitiert, weil bei höheren Auflösungen die Grafikkarte limitiert hätte, und die CPU Test gar keine Aussage mehr gehabt hätten.
 
Guter test muss ich sagen aber dieser scheint nicht mehr so aussage kräftig zusein da es hier eine deutliche cpu limitierung gibt.

Ach ja ich seh schon wieder das 1gb weit zuwenig sein sol für nen chip für die hohen auflösungen.
@buntstift: ati verwendet denvram wesentlich sparsamer als nvidia(ne 285er verballert teilweise ihre 1gb in neer 640er auflösung) Deswegen reichen 1gb momentan für flüssiges spielen aus.
 
die schlechte skalierung von 770 zu 900MHz GPU takt könnte auch daran liegen das die karte den takt selbst wieder reduziert.

Hab in einem anderen test gelesen das denen ihr exemplar sich unter last als schutzfunktion runtertaktet auf ca. 775 MHz
 
Interessanter Test. Vor allem das gleich mitgelieferte Programm um die Spannung zu erhöhen erregt doch etwas Aufmerksamkeit. Anscheinend will man bei AMD wirklich das Übertaktungspotential der 5970 herausstellen.

Das Herzstück des Kühlers ist aus Kupfer, die direkt über den beiden RV870-GPUs platziert ist. Darüber hinaus gibt es noch diverse Lamellen aus günstigerem Aluminium.

Ich frage mich ernsthaft, ob hier der Kostenfaktor ein maßgebendes Kriterium ist und nicht viel eher das Gewicht? "Günstiger" wird in diesem Falle unbewusst ja immer gerne mit "Billig" assoziiert. Der Vorteil von Aluminium besteht aber nicht nur lediglich in der Kostenersparnis. Zumal wenn, wie von AMD anscheinend gewollt, vor allem das Übertaktungspotential ausgespielt werden soll, wäre ein Vollkupferkühler sicherlich mehr von Vorteil und die zusätzlichen Kosten sind bei einem Prestige-Produkt eigentlich eher verschmerzbar.
Diese Kleinigkeit aber nur am Rande, da sie mir beim lesen eben aufgefallen ist... :p
 
Zurück
Oben