Test Test: ATi Radeon HD 5970 CrossFire

morgen ,

mir selber macht ehr die entwicklung angst in die sich das ganze entwickelt. immer mehr stromverbrauch ,
im gegensatz zu nur '' 60'' Prozent mehr leistung zum vorgängermodell . nicht falsch verstehen 60 prozent sind schon ne ganze menge , aber rechtfertigen für mich nicht einen neukauf( preis / leistung )
SLI - hmm ... naja , für mich nicht wirklich nachvollziehbar - lieber grafikchips aller core 2 quad ( eventuell auch gerne mit HT ) und dafür richtig . dann sind grafikkarten vieleicht auch mal länger einsetzbar und etwas zukunftsicherer. - dann wäre vieleicht auch mit den mikrorucklern schluss ; - )
 
Lilz schrieb:
Bei Dirt 2 sind es 202%, stimmt schon was im Fazit steht. Trotzdem frag ich mich wie eine Skalierung von 100% bzw 102% mehr Leistung zustande kommen kann.

Sowas passiert immer mal wieder und wird es auch immer mal wieder geben. Es reichen allein schon Rundungen bei den Ergebnissen, einmal zu Ungunsten und einmal zu Gunsten, egal ob direkt vom Programm bei der Ergebnissanzeige oder dann auch vom Redakteur, schon hast du 102 Prozent. Letztendlich sprechen wir aber auch nur über 1 FPS, was wohl in jedem Spiel als Schwankung üblich ist.
 
Danke fuer die Antwort.
Eine Skalierung von 100% ist demnach doch zu erreichen, ich ging bis jetzt davon aus, das durch die Arbeitsaufteilung und Kommunikation zwischen den Karten(usw.) immer ein wenig Leistung drauf gehen wuerde.
 
Ich höre immer nur Microruckler, aber hatte selber mal mit meinem Bruder ein QuadCrossfire mit 2 4870x2 gemacht und die Microruckler waren bei weitem nicht so schlimm wie das Inputlag! Wäre mal interessant wenn sowas auch getestet wird. Kann mir kaum vorstellen dass das bei diesem Setup nicht aufgetreten ist. Mit Microrucklern kann man evtl. noch leben wenn man sie denn sieht, aber ein Inputlag ist ein absolutes "No Go".

Gruß Martricks
 
bei den system fällt mir noch ein wie stark wo ein 4 kerner hier die bremse wird sein^^ wenn man bei ein singel hd5870 schon auf ein 4kerner setzten muss, damit diese nicht in leerlauf läuft.
 
Kasmopaya schrieb:
Also wenn DX 11 + 8AA nicht viel Vram frisst dann weis ich auch nicht, schönes Setting,

Colin McRae: Dirt 2 (DX11) - 2560x1600 4xAA/16xAF auf 8xAA/16xAF: Von 114,1FPS auf 1FPS das würde dann mal einen schönen Geschwindigkeitsschub bringen mit ausreichend Vram.

Im allgemeinen bricht das Gespann auch immer da ein wofür man es kaufen würde, viel zu wenig Vram machts möglich.
Hatte den gleiche Gedanken, mal schauen wie das bei Fermi ausschaut, wenn der denn mal verfügbar bzw. produziert wird.

Die Skalierung ist, dort wo die Treiber stimmen, wirklich gut, sehr gut sogar für 4GPUs, hoffe das lässt sich in etwa auch auf SLI/CF mit "nur" 2 Karten übertragen, dann wüsste ich was ich mir gegen Mai kaufe.

Microruckler und Inputlag trüben das Bild dann allerdings, mit 2GPUs sollte das ja mittlerweile wohl in Ordnung gehen, vor allem, wenn ATI hier schon so gut performt, dann müsste doch nVidia mit ihren ständig mal wieder aktualisierten Gaming-Profiles noch besser dabei wegkommen oder?
 
AMD wird ja mit dem noch in dieser Woche erscheinenden Cat. 10.1 in die gleiche Richtung gehen. Es wird also wie bei NV jetzt auch seperate Crossfire-Profile geben, die man unabhängig vom Treiber selber aktualisieren kann.

Auszug changelog Cat. 10.1:

# CrossFire X profiles per application will now be in a separate XML file that it will be possible to update independently of the driver itself
# ATI CrossFire X with PowerPlay for the Radeon 5x00s: reduced energy consumption of additional cards
 
Toller Test. Ati hat wohl n Ass aus dem Ärmel gezogen. Aber trotz der der brachialen Leistung der Karte, schafft die es nicht Crysis unter max Auflösung und max Details die 80fps Marke zu erreichen (will nicht die Karte schlechtreden und Crysis auch nicht schönreden). Seltsam.
 
Wahnsinn,solche tests sind faszinierend,super,allerdimgs ist es schon extrem auffällig,wie stark die karten bei Batman ausgebremst werden,macht mich sehr stutzig ob hier nicht eine extra Ati bremse eingebaut wurde,sowas kann doch nicht sein,wenn das Spiel nicht von einer gewissen Firma gesponsored wäre,würde ich sagen schlechte engine,aber so.....
 
Kurz offtopic,warum haben die den rauch nicht über D10 verwirklicht,so wie in Hellgate London,so ist das ja mal wirklich asche,dieses Spiel hätte ich nicht in den Benchmark test mit reingenommen,da es absolut keine aussagekraft hatt.
 
Wie bencht ihr eigentlich Anti-Aliasing in Arkham Asylum? Für NVidia Karten gibt es eine ingame-Option, während für ATi-Karten AA über den Treiber erzwungen werden muss (was üblicherweise erheblich Hardware-hungriger ist).
 
Kasmopaya schrieb:
Dein Wunsch wird wohl bald erfüllt, für die HD 5850 gibt es bereits eine neue Kühlung, die wohl alles andere was es zur Zeit gibt in den Schatten stellt: ->5850 Scythe Musashi Edition http://edel-grafikkarten.de/ATI/HD-5850/HD-5850-Scythe-Musashi-Edition

Batman AA bleibt hoffentlich im Parcours, mit dem Titel hat man 2 Fliegen mit einer Klappe geschlagen, 1. sehr Vram lastig auf hohen Einstellungen und gleichzeitig ein PhysX Titel, also die GPGPU Performance gleich mitgetestet.

Kasmo, selten so viel verteilten Stuss gelesen.

Zum Kühlkörper kann ich nix sagen - will ich auch nicht.

PhysX ist abhängig von GPGPU-Computing. GPGPU-Computing ist aber nicht mit PhysX in einen Hut zu werfen. Im GPGPU-Umfeld wird eher selten ein Spiel im Vordergrund stehen. Man misst in Arkham Asylum also nicht die GPGPU-Fähigkeiten einer Grafikkarte, sondern die PhysX-Performance AUF der jeweiligen Karte. Da dies aber Implementationsabhängig ist und nur bei einem geringen auf dem Markt existierenden Grafikchips nutzbaren GPU-Anteil überhaupt einsetzbar ist, würd ich mal sagen: Äpfel != Birnen.

Weiter vorn gibst du von dir, dass die ersten Dual-GPU-Varianten der TNT oder TNT2 waren... brrr... nV hat bestimmt auch das Internet erfunden, richtig? Die erste massentaugliche Dual-GPU-Grafikkarte war die ATI Rage MAXX anno 1999. Deine TNTs waren da zwar schon geboren, aber erst 2004 bekam nV es gebacken, mit der GF5/6 überhaupt an Multi-GPU zu denken (SLI) Die ersten Multi-GPU-Systeme waren noch 3dfx-Gespanne aus zwei Voodoo1 (zum Ende hin, nicht direkt zum Start) oder ab Start Voodoo²-Karten (1998), die zum Millenium ja von nVidia übernommen wurden.

Regards, Bigfoot29
 
Zuletzt bearbeitet: (Fixed Typo)
@Tkohr

Das liegt am PhysiX, dass bei ATi-Karten auf der CPU laufen muss; da die da nicht mehr als 21fps schafft, kann auch ein X-Fire Gespann mit 5970ern nichts daran ändern.
 
Zumal Batman auch nicht VRAM lastiger ist, als andere Spiele. Aber Kosmo denkt sich die Dinge halt gerne schön, um das geschreihe nach 2GB VRAM @ Stock zu rechtfertigen.

Shurkien schrieb:
Sie schafft es nicht weil einfach kein Vram mehr da ist

Rede nicht so nen stuss, das hat bei Warhead überhaupt nichts mit dem VRAM zu tun.

Wäre schön wenn du nicht durchgehend dem y33h@ in den Ar*** kriechen, und ständig seine Aussagen nach äffen würdest. Das nervt.

Beatmaster A.C. schrieb:
Aber trotz der der brachialen Leistung der Karte, schafft die es nicht Crysis unter max Auflösung und max Details die 80fps Marke zu erreichen (will nicht die Karte schlechtreden und Crysis auch nicht schönreden). Seltsam.

Wie stellst du dir das vor, das bei diesem Game dort 80fps erreicht werden? Das Spiel ist tierisch hardware fordert, keine Ahnung warum. Aber das liegt nicht am VRAM.
 
hmm für nen neuen ventage rekord wär das ganz hilfreich :D
 
Ich höre immer nur Microruckler, aber hatte selber mal mit meinem Bruder ein QuadCrossfire mit 2 4870x2 gemacht und die Microruckler waren bei weitem nicht so schlimm wie das Inputlag! Wäre mal interessant wenn sowas auch getestet wird. Kann mir kaum vorstellen dass das bei diesem Setup nicht aufgetreten ist. Mit Microrucklern kann man evtl. noch leben wenn man sie denn sieht, aber ein Inputlag ist ein absolutes "No Go".

M-GPU Input Lag zusätzlich zum Input Lag vom TFT Monitor. Bei solchen Settings läuft es mir dann immer kalt den Rücken runter. :rolleyes:

Kasmo, selten so viel verteilten Stuss gelesen.
Und warum nicht auf einem Haufen?

Du hast gleich mehrfach nicht richtig verstanden, oder einfach nicht richtig gelesen:
PhysX ist abhängig von GPGPU-Computing. GPGPU-Computing ist aber nicht mit PhysX in einen Hut zu werfen.
Bei Batman AA testet man natürlich die GPGPU Fähigkeit von NV Karten, schon klar das da ATI Karten nicht dabei sind. Und die neuen 40nm Karten zeigen tatsächlich eine sehr gute(bessere) GPGPU Leistung, also auch PhysX Leistung.

Weiter vorn gibst du von dir, dass die ersten Dual-GPU-Varianten der TNT oder TNT2 waren... brrr...
Falsch verstanden, die Leute wollen die ganze Zeit dual und Quad GPUs also so wie bei den CPUs mehrere Dies zusammengeklascht oder nativ, und irgend was mit T&L war dann die erste "dualcore GPU"(nicht verwechseln mit dual-GPU-Karten!).
Noch dazu hab ich nicht gesagt das NV als erstes irgend was gebracht hat, nur seit ca. 1998 gibts das geforderte schon.

Also nix SLI was du meinst, einige fordern dualcore GPUs...
Zumal Batman auch nicht VRAM lastiger ist, als andere Spiele. Aber Kosmo denkt sich die Dinge halt gerne schön, um das geschreihe nach 2GB VRAM @ Stock zu rechtfertigen.
SGSSAA und Eyefintiy gibts plötzlich nicht mehr?
Des weiteren bestätigen mich die Hersteller-> Fermi min. 1,5GB Vram, damit ist wohl klar das 1GB Vram nicht mehr ausreicht und mehr habe ich auch nicht gesagt.
Damit schon die 2. Bestätigung nach der HD 5700 (mid)Serie die mit 1GB Vram gestartet wurde.:p Von dem her ist hier gar keine Diskussionsbasis mehr weil das Thema schon lange vom Tisch ist...:D
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Des weiteren bestätigen mich die Hersteller->Fermi min. 1,5GB Vram, damit ist wohl klar das 1GB Vram nicht mehr ausreicht und mehr habe ich auch nicht gesagt.
Die Schlussfolgerung ist aber auch recht mutig :p Abgesehen davon kann man das Speichermanagement
einer Nvidia Karte schlecht mit einer von Ati vergleichen.
 
Dann noch einen oben drauf -> HD 5870 Eyefintiy Edition(bzw. CF Version) -> 2GB Vram
Relativ mutig, aber die werden wohl kaum zu viel Vram verbauen wenns nicht wirklich nötig ist, zeigen Karten wie GTX 260(900)/280(1GB). Vom dem her gar nicht mal so weit aus dem Fenster gelehnt wenn man sagt das Fermi auch die 1,5GB brauchen kann. Der neue 32x Glättungsmodi wird wohl auch ein bisschen Vram fressen, wird wohl eher knapp mit 1,5GB. :rolleyes:
 
Zuletzt bearbeitet:
Zurück
Oben