Test Test: ATi Radeon HD 5970

palace4d schrieb:
@AvenDexx
Bei dem verlinkten CPU Test limitiert die 9800GTX zu stark, deshalb sind dieBalken dort nicht aussagekräftig. Würde der Test erneut mit einer 5970 durchgeführt, würde es schon ganz anders aussehen.
Beim neuen Testsystem hoffe ich auf ein Socke 1366 System, da man bei CF und SLI 2x PCI-E 16 Lanes hat, im Gegensatz zum Sockel 1156.

Ich zitiere mich mal selbst:

AvenDexx schrieb:
CB CPU-Tests schrieb:
[...]Bei Spielen wird auf die Auflösung von 1.280 x 1.024 Bildpunkten zurückgegriffen, da bei höheren Auflösungen quasi nur noch die Grafikkarte ein Rolle spielt[...]

Bei 1280x1024 würde das Gesamtrating anders aussehen, wenn man ne stärkere Graka einsetzt? Das möchte ich weitestgehend anzweifeln.

Und weiter:

Ball_Lightning schrieb:
Wen interessiert 1280x1024 bei einer HD5970? Du weisst genau, was ich gemeint habe.

Bei den CPU tests hat man die Auflösung auf 1280x1024 limitiert, weil bei höheren Auflösungen die Grafikkarte limitiert hätte, und die CPU Test gar keine Aussage mehr gehabt hätten.

Ja genau. :) So sieht man nämlich die Auswirkungen der CPU. Also genau das, was gefordert wird. Also limitiert die Graka da nicht. Dabei spielt es nun keine Rolle ob ich 1280x1024 nehme und ein CPU-Limit habe oder 1080p Auflösung inkl. CPU-Limit.

Bedeutet also: Solange die CPU der limitierende Faktor ist, trifft das Performancerating weitestgehend zu. Es wird also keine größeren Veränderungen geben. ;)
 
Zuletzt bearbeitet:
Nette Karten ... man wird sie jedoch erst richtig einschätzen können wenn nVidia seine Gegenstücke herausbringt.
 
also ich find die karte jetzt garnicht so schnell... bin ehr enttäuscht hab mir da um EINIGES mehr vorgestellt...

das finde ich selber ne schwache leistung, abwarten bis die 5870x2 zeigt was se kann
 
rumpel01 schrieb:
Die Bandbreitenlimitierung sieht man bereits hier: https://www.computerbase.de/2009-11/test-ati-radeon-hd-5970/22/#abschnitt_uebertaktbarkeit

Die karte profiziert mitunter direkt und linear von der Erhöhung des Speichertakts, eine weitere Erhöhung des GPU-Takts hingegen bringt kaum etwas, und das bei einem GPU-Limitierer par excellence, Crysis Warhead. Klarer gehts nicht.

Die Speichertakterhöhung um 1200MHz und des Chips um 45MHz bringt 0.5FPS, die alleinige Erhöhung des Chiptaktes um weitere 130MHz dagegen 1.7FPS. Also was du da klar siehst entzieht sich meiner Vorstellungskraft.
 
Falls es jemanden interessiert:
3DCenter hat die CrossfireBenches gemacht/zusammengetragen und auch ausgewertet (was ich hier ein wenig vermisste habe =) ).

http://www.3dcenter.org/artikel/zum-launch-der-radeon-hd-5970

Interessantes Fazit: Defakto kein Unterschied zum HD5850-Gespann, was aber eigentlich trotz der besseren technischen Specs zu erwarten gewesen wäre.
 
Zuletzt bearbeitet:
Ganz klarer Fall von CPU limitierung die Karte kann wohl noch ein bisschen mehr. Desweiteren wäre es nicht schlecht wenn CB mal im ANNO 1404 Test, " Grafikfehler ! " Unter den AMD Karten rausnehmen würde denn die Grafikfehler wurden mittlerweile seit WOCHEN BEHOBEN.

EDIT: Ach wo bleiben die heulsusen die noch gestern und vorgestern wegen der 296 Watt TPD rumgeheult haben. Ich hab es euch gesagt wartet auf den Test von CB. Die Karte frisst deutlich weniger Strom unter Last sowie idle. Was nicht heisst das es nicht viel wäre aber sie verbraucht weniger.
 
Zuletzt bearbeitet:
AvenDexx schrieb:
Ja genau. :) So sieht man nämlich die Auswirkungen der CPU. Also genau das, was gefordert wird. Also limitiert die Graka da nicht. Dabei spielt es nun keine Rolle ob ich 1280x1024 nehme und ein CPU-Limit habe oder 1080p Auflösung inkl. CPU-Limit.

Bedeutet also: Solange die CPU der limitierende Faktor ist, trifft das Performancerating weitestgehend zu. Es wird also keine größeren Veränderungen geben. ;)

Ich habe mich scheinbar nicht verständlich ausgedrückt. Natürlich spielt auch bei 1280x1024 die Grafikkarte eine Rolle, auch bei diesem CPU Test. Daher würden die gleichen Balken bei einer 5970er anders aussehen.
 
milamber! schrieb:
Mal abgesehen davon, das die Behauptungen es limitiere dieses hier, und jenes da, meist nur eine relativ wage Deutung der Benchmarkergebnisse darstellt, aber nehmen wir mal an, es wäre wirklich so; Limitiert bei der Hardware nicht sowieso immer irgendwas? Die GPU Leistung, der Speicher, die Speicheranbindung, die Schnittstelle, what ever?

Natürlich vollkommen richtig, jedoch sollte tunlichst versucht werden das vorhandene Potential der GPU auch wirklich effektiv in der Praxis nutzen zu können. Eine problematische Speicheranbindung bei einem High-End Modell wäre natürlich anlass zur Kritik, wenn sie bremst. Aber alles Theorie ;-)

Schinzie schrieb:
keiner,der sihc eine grafikkarte für 600€ kauft,wird diese länger als 2 jahre nutzen. und da die konsolen noch bis 2012 laufen,wird es auch nix ultra speicherintensives für den PC mehr geben. Oder nenne mir einen Grafikkracher exklusiv für den PC der entwickelt wird?

Naja, so würde ich das nicht sehen. Titel müssen nicht PC-Exklusiv sein um auf der Plattform der Grafikkracher schlechthin zu sein. Sieh dir mal an wie sich die Sache gerade entwickelt und wie beispielsweise Modern Warfare 2 auf den Konsolen von der visuellen Qualität her voll abstinkt (obwohl die Leistungsfähigkeit aktueller High-End PCs noch nicht wirklich abgerufen wird). Bei Dirt 2 wird es wohl ähnlich und diese Entwicklung wird sich weiter so fortsetzen bis die neuen Konsolen kommen.
 
Zuletzt bearbeitet:
rumpel01 schrieb:
In der Folge aber schon ... Diskussionen rückwärts drehen ist albern. ;)

Das heißt dann aber nur dass es Spieleabhängig ist.

Bei WiC bringen 30% mehr Speicherbandbreite und leicht höherer GPU-takt etwas weniger als 5% Mehrleistung. Weitere knappe 17% mehr GPU-takt dagegen etwas mehr als 2% Mehrleistung. Womit wir sehen dass WiC auf beides relativ ausgeglichen reagiert.

Crysis bringt die erste Übertaktung dagegen nur leicht mehr als 2%. Die zweite Übertaktung aber zumindest "etwas" deutlichere 7,3%.

Bei BF dreht sich das wieder wie du schon sagtest. Knappe 17% Mehrleistung bei ersterer Übertaktung aber nur weitere 6,3% bei der zweiten. Bei dem Spiel zeigt sie also eine prozentual leicht höhere Mehrleistung bei der Übertaktung des Speichers.
 
Hm, jetzt wäre schön zu wissen, ob die CPU oder die Speicherbandbreite/Busbandbreite/sonstwas limitiert.

Dem Test nach ist die Karte ja momentan ein Griff ins randvolle Klo!
Kann es sein, daß da Nvidia nix bombastisches nachschiebt, weil es nicht mehr schneller geht, da die Plattformen limitieren?!


Ist das Ende der Fahnenstange erreicht?
 
ihr solltet vlt echt mal über eine neue Test-Basis nachdenke... :)
aber sonst netter Test
 
Wow toll Super ! Noch'n Stromfresser mehr, der wahnsinnige 5-10 bilder/sec mehr darstellen kann wow:D
Damit mein ich Spiele, die ich in Betracht ziehe und in meiner Auflösung + Filter spiele/spielen würde.
Wo soll dieser Schwachsinn noch hinführen ? Ich brauch keine 200 fps in einem Spiel, wenn es 100 auch tun, solange diese konstant sind.
Und NEIN, ich sag nix negatives, weil ich eine NV Karte benutzt. Ich sag dies nur, weils absolut daneben ist.
Die sollten sich lieber mehr darauf konzentrieren, Karten zu entwickeln, die wie oben schon geschrieben, konstante Leistung bei einer gemittelten Auflösung + Filter zu erbringen und das bei niedrigst Stromverbrauch und Abwärme. Was nützt mir IDLE Stromsparmodus, wenn ich mit einer Gamerkarte, Leistung brauch und dort die so ersparten kW/H, wieder verheize ? Garnix.
Ja Leistung schreit nach Energie, ich weiss. Aber mittlerweile sollte es sich bei den Herstellern auch rumgesprochen haben, daß FPS nicht alles ist. Die wenigsten kaufen sich diese Penispumpe und wenn, dann haben sie kein Geld mehr für andere Dinge *g*

Positives kann ich dennoch dazu schreiben. Die Lautstärke und Temperatur bei Last sind fuer ein 2 Kern PCB mehr als Top. Gute Arbeit und dafür mein Lob. Alles andere ist meine Meinung ;D
 
@DvP

Klar, optimum wäre, die Leistungsgrenze der Karte ist einzig und allein abhängig von der GPU, doch weiss keiner von uns mit was für einen technischen und finanziellen Aufwand zu rechnen ist, wenn das Speicherinterface erhöht oder doppelter Speicher verbaut werden würde.
Das ATI von der HD2000 zur HD3000 das Speicherinterface halbierte, ähnliches von der GT200 zur GT300 mit 512 zu 384bit (bei nun DDR5 Speicher) von statten ging, oder es nur eine einzige Dual GPU Karte der 295er Reihe gab, mit 2x 2GB Speicher, welche nicht nur sündhaft teuer war, sondern auch nur in einer Limitierten Stückzahl angeboten wurde.

Das wird sicher seine Gründe haben.

@project; wenn du viel Leistung für wenig Stromverbrauch erwartest, dann schau dich bei den Midrange und LowEnd Karten herum, denn die bieten das, was du forderst. Die Leistung der Top Karten von gestern, mit einer deutlich geringeren Leistungsaufnahme.
Also tu doch bitte nicht so, als würden sich die Hersteller um sowas nicht kümmern. Der Grafikmarkt besteht nicht nur aus Dual GPU High End volles Limit Karten.
Und wenn du diese Leistung nicht brauchst, oder haben willst, dann kann dir die Karte doch vollkommen egal sein.
 
Zuletzt bearbeitet:
puuhhhh...
...diese Bildwiederholraten die ich gesehen habe, hauen mich ja fast vom Hocker,
bin schwer beeinduckt von der HD 5970.
...auch wenn dies eine High-End-Grakka ist, die für mich als normalsterblichen unerschwindlich und bei meiner Bildschirmauflösung zu übertriben ist...

edit: wundert mich wiso da nicht auch mit 2x HD 5870 in CF dabei war....
 
Womit wir sehen dass WiC auf beides relativ ausgeglichen reagiert.

Nein, d.h., dass ein Limit erst greifen muss. Bei ca. 6%iger GPU-Takt-Erhöhung von 725 auf 770Mhz bei WiC bekommt man knapp 5% Mehrleistung, auch bei Anhebung des Ramtakts um 30%. Das bedeutet also, dass hier an dieser Stelle kein Bandbreiten- sondern ein Renderleistungslimit herrscht. Es wäre hier auch denkbar, dass bereits 1100Mhz für die 5%ige Gesamtsteigerung reichen könnten. Das Bandbreitenlimit wird ja gerade dann deutlich, wenn man weiter den GPU-Takt erhöht und sich die Frage stellt: ab wann nützt es nichts mehr? Wenn Du nämlich die GPU weiter um dann massive 17% hochjagst und dies praktisch nichts bewirkt, dann besteht da ein eindeutiges Limit.

Zur vergleichbaren Diskussion um die 5870 (wo dasselbe "Problem" besteht, nur leicht "verschoben"): https://www.computerbase.de/forum/threads/test-ati-radeon-hd-5870.636721/page-20#post-6656648
 
Zuletzt bearbeitet:
Zurück
Oben