Test Test: ATi Radeon HD 5970

Okay, insgesamt sind es wohl nur 24%. Habe mich wohl auch etwas von den Extremen
blenden lassen und die Benchs, bei denen einfach kein passenden Crossfire-Profil
vorhanden war, ausgelassen. Bei 2560x1600, oder 1920x1200 mit AA und funktionierendem
Crossfire-Profil sieht es allerdings sehr gut aus mit Skalierungen zwischen 60% und 100%.
Das hat jetzt auch wenig mit Rosinenpicken zu tun. ein 1200 EUR GPU-Setup
fährst du nicht auf einem 150 EUR 22"'er Zoller, sondern auf Monitoren ab 30" aufwärts,
oder gleich auf 3x 24", wenn nicht gleich 6x22". ^^
Es interessiert auch niemanden, wie sich ein Porsche als Familienwagen macht.
Bei einem Drittel der Spiele funktionieren die Treiber des brandneuen Setups noch nicht
und es skaliert quasi negativ. Fällt das erstmal weg - und es wird wegfallen -
sieht es gleich ganz anders aus.


Aber wieso sollen Mikroruckler bei vier GPUS schlimmer sein, als bei zwei?
Sie entstehen doch, weil die Bilder nicht im gleichen zeitlichen Abstand
an den Monitor gesendet werden. Wie viele GPUS die Bilder senden ist doch egal.
Theoretisch müsste es bei 4 GPUs sogar besser werden, weil man da quasi ein Kreuzfeuer hat.
Noch besser wäre natürlich würde man einen Buffer dazwischen schalten,
der die Bilder einfach nochmal im exaktem Abstand losschickt. Kleiner Chip,
256MB-Buffer und Tschüss Mikroruckler!
 
Zuletzt bearbeitet:
dieser puffer würde die leistung wieder beengen, deshalb wird sowas nicht implementiert. mit ein wenig arbeit könnte man die microruckler auch entschärfen, aber AMD hat daran anscheinend kein Interesse. Nvidia hatts scho gemacht.

bei 2 gpus wird das bild einer gpu immer unsynchron ausgegeben, bei 4 gpus sind die abstände bezüglich einer gpu 3 mal unterschiedlich, was microruckler nur bestärkt.

bei 100fps zb. müsste alle 10ms ein bild folgen, es ist aber so,dass das erste nach 5 kommt,das zweite nach 20 und das dritte nach 5 dann wieder eins nach 10.

das ist in meinen augen schlimmer als bei 2 gpus mit 50fps, wo der abstand 20ms betragen müsste, das zweite bild aber nach 25 und das dritte nach 15ms kommt.


gruß
 
Hmm... Kommt darauf, wie schnell und effizient so ein Buffer arbeiten würde.
Er würde aber so oder so das Inputlag und einige Millisekunden verlängern.

Hmm, hier käme es mal auf einen Test in Computerbase-Qualität an (@Volker ;),
an dem an sieht, wie es sich mit der Verteilung der Frames real verhält.
 
Ab 3 GPUs wird echt grausam bei ATI.
Die habe da nichts optimiert und werden da auch nichts optimieren.

Hier mal ein Test:
https://www.computerbase.de/2009-02/test-3-way-sli-vs-quad-sli-vs-crossfire-x/21/#abschnitt_fazit

Zitat:
Das Problem der unrunden Bildabfolge, nur gar noch schlimmer, haben auch Triple- und Quad-CrossFire. Im Prinzip ist jede Anwendung absolut unspielbar, nur wenige Ausnahmen wie Race Driver Grid laufen einwandfrei. Anscheinend hat sich ATi primär auf zwei GPUs konzentriert und den dritten beziehungsweise vierten Rechenkern bisher noch nicht berücksichtigt, anders können wir uns das immense Ruckeln nicht erklären.

Das hat sich bis Heute nicht verändert.
 
Genau deswegen will ichs testen.;-) Kostet ja nich die Welt.
Ansonsten gebe ich mich mit 2 HD5770 zufrieden.
Ist mehr ein Testsystem.
@ Schinzie Schonmal nen Test mit SSAA gelesen, wo der V-Ram ausgeht, wenn flüssige Bildraten noch möglich wären, mit mehr V-Ram? Ich hab noch keine gesehen.
Crysis könnte manchmal allerdings durchaus 2Gb V-Ram vertragen.
Naja ich hoffe mal auf Windows 7, das wird schon einsparen.^^
 
Zuletzt bearbeitet:
ich habe Windows 7 und es selber getestet, oder wie erklärst du dir,dass bei DAO das spiel bei dialogen zb alle paar min mal kurz hängen bleibt (nur bei SSAA, bei MSAA oder CFAA nicht), und an anderen momentan an der gleichen stelle das spiel mit 60fps läuft? oder wenn man läuft alles prima ist,und nach paar min es derbe anfängt zu ruckeln? das sind zeichen von zu vollem Vram, glaub mir, ich konnte es anfangs au net glauben.

Bei Aion kann man das selbe feststellen,anfangs läufts butter weich, nach 5min brichts weg und läuft nur noch schwammig, an der selben stelle.

wieso nicht eine 5870, wieso mit CF auskommen?

gruß
 
Zuletzt bearbeitet:
Hast mitm rivatuner schonmal den V-Ram Verbrauch gemessen?
PCGH schrieb zwar anderes, aber ich glaub dir mal.^^
Dann wirds wohl doch ne 2GB Karte für SSAA.
 
selbst mit 24xCFAA kriegt man die karte nicht runter (und ein ruckeln durch zu schwache gpu leistung kann man sehr wohl von einem einbrechen durch Vram mangel unterscheiden).

Aber ab 4xSSAA wirds bei "anspruchsvolleren" titeln mit viel Bildinhalt kritisch, leider. man merkt förmlcih wie die karte nach mehr Speicher schreit und spürt, dass sie von der Rohleistung durchaus im Stande wäre es flüssig darzustellen.

oder evt viel zu wenig Bandbreite, ein test mit 2gb muss her.

Rivatuner läuft nicht unter Win7, und GPUZ zeigt bei ATI´s keine Vramauslastung an.
 
Zuletzt bearbeitet:
@Shurkien
Dann zeig uns mal einen richtigen VRAM Screenshot.
 
@Motkachler
Das ist das geringste Problem.
Das Problem dabei ist dass er den VRAM-Verbrauch nicht anzeigt. Hättest Du das Readme beim Rivatuner gelesen und die 64-Bit-Signierten Treiber installiert die beim Download im Zip dabei sind. Dann würde der auch gehen.

 
Zuletzt bearbeitet:
Was ich interessant finde, ist, dass eine HD5970 unter Spiele Last nur unwesentlich mehr zieht als eine GTX285.
27Watt mehr, nach den Werten HT4U´s.
 
Echt nicht viel wenn man bedenkt wie alt ne GTX285 gegen die 5970 aussieht. Ist schon ne andere Dimension was ATI da produziert hat.
 
Wohl eher ein Indiz wie schlecht die Auslastung der HD5970 in Spielen ist.
In Furmark sind es dann locker 80 Watt mehr gegenüber der GTX285.

Man kann nur hoffen das die kommenden Treiber noch für eine bessere Auslastung sorgen werden.
 
das ist designbedingt, die auslastung unter spielen ist realistisch, furmark zeigt nur eine syntethische auslastung,die so nie erreicht wird. das chipdesign ist ja so,dass nie alle einheiten gleichzeitig ausgelastet werden.


gruß
 
Zurück
Oben