News PowerColor stellt „Devil13 HD7990“ mit zwei GPUs vor

rico007 schrieb:
MR treten dank AFR (Alternate Frame Rendering) IMMER auf.

Falsch.
Sie koennen immer auftreten, wenn man sich aber ein bisschen informiert, wird man sie idR. los und 60 MGPU fps sind dann exakt gleich wie 60 single GPU fps.
 
Bei AMD bei weiten nicht.
Gibt genügend Frametime Test die das Gegenteil beweisen.
 
rico007 schrieb:
Bei AMD bei weiten nicht.
Gibt genügend Frametime Test die das Gegenteil beweisen.

Bei mir hilfts. Auch wenn du es nicht glauben willst. Aber 60 Crossfire fps sind bei mir immer mikroruckelfrei. (im Sinne von gleichmaessigen Frametimes, ergo messbar, nicht nur subjektiv)
 
Immer das gleiche bei solchen Karten, eine riesige Diskussion über MR. Im Gegensatz zu vielen anderen habe ich persönliche Erfahrung mit Multi-GPU-Karten. Es ist eine persönliche Sache, die meiner Erfahrung nach auch extrem vom Genre abhängt. Ich zocke Skyrim auf einer 5970 in Eyefinity-Auflösung. Nicht auf höchsten Einstellungen, aber auf hohen mit ca. 40 fps. Und da ruckelt nix in meinen Augen. Ob das ausserdem an meinem Alter, meinen Augen oder dran liegt, dass ich eine Frau bin, weiss ich nicht. Auf jeden Fall macht es einen Unterschied, ob man BF3 oder ein RPG spielt. Also bitte hört auf, immer auf den MR rumzuhacken. Es kann MR haben, muss aber nicht.

Was mich vorallem wundert und abschreckt, vorallem in der heutigen Zeit, ist der exorbitante Verbrauch:
http://www.techpowerup.com/reviews/Powercolor/HD_7990_Devil_13/25.html
 
Mikroruckler sind schon ein wichtiges Thema. Nur weil Person x sie bei fps y sie nicht sieht/merkt, heißt das nicht, dass jemand anderes sich hier nicht doch daran stört. Man kann sie nicht wirklich wegdiskutieren - ein Farbenblinder sagt schließlich auch nicht, es gibt nur eine Farbe (mal drastisch ausgedrückt).

Ich bin immer sehr enttäuscht, wenn in den Reviews kein oder kaum ein Wort darüber verloren wird. Man sollte die Frametimes messen und zusätzlich mindestens (!) 2 Leute kurz an das System setzen und die ihr Spielgefühl in kurzen Worten beschreiben lassen. Das würde viel mehr helfen als bei dem Thema die Augen zu verschließen und es zu ignorieren, nur weil man selbst nix merkt.

Ulukay schrieb:
Falsch.
Sie koennen immer auftreten, wenn man sich aber ein bisschen informiert, wird man sie idR. los und 60 MGPU fps sind dann exakt gleich wie 60 single GPU fps.

Du meinst mit einem fps Limiter? Das stimmt, wobei das in der Praxis nicht immer eine Lösung ist. Schwanken die fps in einem Spiel so deutlich, dass man die Einstellungen weit runterdrehen muss, um nicht unter das Limit zu fallen, ist die Skalierung natürlich völlig im Eimer und es würde fast schon eine Karte genügen.
 
Zuletzt bearbeitet:
Was wird denn mit der "normalen" HD7990?
Kommt die nach dieser Special-Edition, oder kommt dann nix mehr?
 
Von AMD kommt keine "Referenz" 7990.

Zum MR Thema.
Ich war bis jetzt immer unglücklich mit CrossFire und das poste ich auch. Da ist die Nvidia Lösung in Form der 690 schon ein Quantensprung (ist aber auch meine erste Nvidia Dual GPU Karte) im Vergleich zur 5970 / 6990.

Das 7950 CF vom Freund leidet genau unter den selben Problemen in Form von deutlich erkennbaren MR, auch wenn es mit FPS Fix auf 58 besser wird. Allerdings Online zocken mit CF :mad:

Deswegen erlaube ich mir auch über CrossFire zu meckern und lasse eben kein gutes Haar dran, weil es einfach im Vergleich zum SLI von Nvidia die schlechtere Multi GPU Lösung ist. MEINE Meinung.
 
Wenn da keine Referenz mehr kommt, gibt's wohl auch Probleme einen geeigneten WaKü-Block zu ergattern:(
 
Hinsichtlich Mikroruckler werden die min fps noch entscheidender als bei Single GPU Karten. Richtig gesetztes Framelimit orintiert an eben diesen damit Pflicht. Min fps in Benchmarkdiagrammen wirds aber in diesem Forum nicht geben, nur einige Momentaufnahmen von einigen wenigen settings via Frameverlaufdiagramm.

Generell wegen Minimum-FPS: Wie schon oft erwähnt, wir halten von denen nichts.

Schade :-(
 
Minimum-FPS ohne weitere Angaben sind ein sinnloser Wert.

Beispiel:
Karte A fällt einmal auf 20fps in einem 30-minütigen Lauf
Karte B fällt 10x auf 25fps in einem 30-minütigen Lauf

Und nu? Minimum-FPS müssen erstmal reproduzierbar sein. Die allerwenigsten Tester testen mehr als einmal. Kann genauso eine Anomalie sein, das weiß man nie sicher. Und zweitens muss man den Minimalwert immer im Kontext betrachten, d.h. immer ein Verlaufsdiagramm dazu. Als isolierter reiner Zahlenwert ist das Minimum nutzlos.
 
Ja, da magst du Recht haben.

Ich meine gelesen zu haben dass pcgh jede Benchmarkszene 3 mal durchlaufen lässt und den Durchschnitt bildet.

Klar sind diese Runs nur 30 Sekunden lang, wenns in diesen aber schon mal runter geht, sagt dass doch etwas aus wie ich meine.

In einigen games treten hier auch signifikante Unterschiede der Konkurrenzprodukte zu Tage, welche bei den Max FPS schön brav im Verborgenen bleiben.

Ist halt meine Meinung diesbezüglich.
 
HeinzNeu schrieb:
Wenn da keine Referenz mehr kommt, gibt's wohl auch Probleme einen geeigneten WaKü-Block zu ergattern:(


Das wäre dass geringste Problem um dass ich mir sorgen machen würde.
Wichtig ist, wie wird es in Zukunft mit Treibern aussehen. Eine Dual Karte gibt es ja Offiziell nicht.
 
Leider fehlen bislang auch Testergebnisse.
Da zur GTX 690 kaum ein Unterschied des Kaufpreises besteht, greife ich wohl zu dieser.:)
 
Zuletzt bearbeitet von einem Moderator:
sheldon schrieb:
Immer das gleiche bei solchen Karten, eine riesige Diskussion über MR. Im Gegensatz zu vielen anderen habe ich persönliche Erfahrung mit Multi-GPU-Karten. Es ist eine persönliche Sache, die meiner Erfahrung nach auch extrem vom Genre abhängt. Ich zocke Skyrim auf einer 5970 in Eyefinity-Auflösung. Nicht auf höchsten Einstellungen, aber auf hohen mit ca. 40 fps. Und da ruckelt nix in meinen Augen. Ob das ausserdem an meinem Alter, meinen Augen oder dran liegt, dass ich eine Frau bin, weiss ich nicht. Auf jeden Fall macht es einen Unterschied, ob man BF3 oder ein RPG spielt. Also bitte hört auf, immer auf den MR rumzuhacken. Es kann MR haben, muss aber nicht.

Was mich vorallem wundert und abschreckt, vorallem in der heutigen Zeit, ist der exorbitante Verbrauch:
http://www.techpowerup.com/reviews/Powercolor/HD_7990_Devil_13/25.html

Ich hab Skyrim mittlerweile aufgegeben. Mit Haydens-WideScreen-Fixer ist es mir ständig abgestürzt und ohne ist es in Eyefinity nicht wirklich zu gebrauchen. Oder welchen Workaround nutzt Du? Oder sollte sich Bethesda der Sache tatsächlich mal angenommen haben?

Ansonsten ist Skyrim bei mir wirklich auf der roten Liste. Crossfire skalierte bescheiden und es hat einige Cat- und CAP-Updates gebraucht bis es nicht mehr negativ skalierte und der Eyefinity-Support ist - wie gesagt - leider allererste Grütze mit den reingezoomten grausigen Flash-Menüs.

Die Leistungsaufnahme für die gebotene Leistungsdichte finde ich jetzt nicht so erschreckend. Ich habe mich nach der endlosen Warterei auf die 7990 als Ablösung meiner 5970 dann für zwei 7970er entschieden, von der eine im Desktop-Betrieb komplett ruht. Im Officebetrieb nimmt mein System 181Watt inkl. dreier aktiver Bildschirme, Stehlampe und aktivem 5.1-System. Bei einer Runde Sleeping Dogs kommt die Sache dann in Fahrt mit rund 575 Watt.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Mikroruckler sind schon ein wichtiges Thema. Nur weil Person x sie bei fps y sie nicht sieht/merkt, heißt das nicht, dass jemand anderes sich hier nicht doch daran stört. Man kann sie nicht wirklich wegdiskutieren - ein Farbenblinder sagt schließlich auch nicht, es gibt nur eine Farbe (mal drastisch ausgedrückt).

Ich bin immer sehr enttäuscht, wenn in den Reviews kein oder kaum ein Wort darüber verloren wird. Man sollte die Frametimes messen und zusätzlich mindestens (!) 2 Leute kurz an das System setzen und die ihr Spielgefühl in kurzen Worten beschreiben lassen. Das würde viel mehr helfen als bei dem Thema die Augen zu verschließen und es zu ignorieren, nur weil man selbst nix merkt.

Wenn ich mir die Reviews zu früheren SLI und Crossfire Tests so ansehen, wird dort meistens davon gesprochen, dass ab 40 bis 50 FPS kaum noch µruckler warnehmbar seien.
Ich habe das Gefühl dass das µrucklerthema stark gehyped wird, denn ich bin früher auch fette 8800GTX SLi Setups gefahren und hatte auch zuvor eine Radeon HD3870X2 und konnte damals bei soliden Framerraten schon wenig erkennen.

Wo sind eigentlich die µruckler Experten? Ich sehe in den Foren immernur sehr wenige, welche µruckler überhaupt in spielbaren Regionen bemerken.
 
Reviews beleuchten das Thema schon immer recht stiefmütterlich. Die Tester haben die Karte für nen halben Tag im Rechner und das war es dann. Langzeiterfahrungen mit CF/SLI sehen anders aus.

Zum Hypen:
Es bewegen sich unheimlich viele Möchtegernexperten in den Foren. Die meisten plappern irgendwas nach, ohne jemals CF oder SLI gehabt zu haben. Allerdings gehört es nunmal dazu, die Thematik zu untersuchen, weil es neben der Profilabhängigkeit DAS Problem von AFR ist. Wenigstens diesbezüglich haben die Plapperer Recht, wenn sie das Thema bei MGPU immer wieder aufwärmen.

Dass nur wenige die Ruckler bemerken (wollen?) verneint ja nicht deren Existenz. Sollen wir dann auch nur alles mit fps-Limiter@60fps testen, weil die meisten die direktere Steuerung bei 60+ fps nicht merken? Nein, wenn man testet, dann bitte gründlich. Und wenn es 2 von 10 sind, die sich daran stören, dann steht es diesen zweien auch zu, gescheit informiert zu werden. MGPU ist eh schon eine Nische, da muss man nicht noch weiter wertvolle Informationen rausnehmen, die ausschließlich für dieses Thema relevant sind. Dann lieber die kleinen Auflösungen rauswerfen und ein paar Spiele weglassen, damit mehr Zeit für die MR-Untersuchungen bleiben.

Ganz ganz ganz wichtig dabei auch:
Nicht nur frametimes messen, sondern selbst spielen und ein Gefühl dafür bekommen. Einen Benchmark laufen lassen und dann ne Tasse Kaffee trinken geht nicht.
 
Cat Toaster schrieb:
Ich hab Skyrim mittlerweile aufgegeben. Mit Haydens-WideScreen-Fixer ist es mir ständig abgestürzt und ohne ist es in Eyefinity nicht wirklich zu gebrauchen. Oder welchen Workaround nutzt Du? Oder sollte sich Bethesda der Sache tatsächlich mal angenommen haben?

Ansonsten ist Skyrim bei mir wirklich auf der roten Liste. Crossfire skalierte bescheiden und es hat einige Cat- und CAP-Updates gebraucht bis es nicht mehr negativ skalierte und der Eyefinity-Support ist - wie gesagt - leider allererste Grütze mit den reingezoomten grausigen Flash-Menüs.

Die Leistungsaufnahme für die gebotene Leistungsdichte finde ich jetzt nicht so erschreckend. Ich habe mich nach der endlosen Warterei auf die 7990 als Ablösung meiner 5970 dann für zwei 7970er entschieden, von der eine im Desktop-Betrieb komplett ruht. Im Officebetrieb nimmt mein System 181Watt inkl. dreier aktiver Bildschirme, Stehlampe und aktivem 5.1-System. Bei einer Runde Sleeping Dogs kommt die Sache dann in Fahrt mit rund 575 Watt.

Ich muss sagen, dass ich in letzter Zeit gar nicht gespielt habe. Skyrim habe ich zuerst mit Haydens Lösung probiert, das war aber recht zickig. Mit dem Plugin von Helifax für den offiziellen Widescreen Fixer hat es dann viel besser funktioniert. Wobei ich es ein Armutszeugnis finde, dass Bethesda das nicht nativ unterstützt. Ich vermute mal, das ist wegen der Konsolen. Egal, ich finde, das Gaming-Erlebnis auf 3 Bildschirmen grandios. Wobei ich die 3 auch im Office-Betrieb sehr schätze.

Hatte bis vor kurzem auch eine 5970, jetzt eine 7950. Sobald ich mehr Zeit zum Zocken habe, kommt wohl noch eine 2. 7950 dazu. Interessant ist übrigens auch der Unterschied im Stromverbrauch zwischen 7950 und 7970
 
Freddy72 schrieb:
Wenn ich mir die Reviews zu früheren SLI und Crossfire Tests so ansehen, wird dort meistens davon gesprochen, dass ab 40 bis 50 FPS kaum noch µruckler warnehmbar seien.

Es gibt Spiele in denen merke ich extreme Mikroruckler bei durchgehend 60fps im Vsync. Wenn man mit dem fps Limiter dann auf 60fps limitiert gehts butterweich. Aber out-of-the-box (ohne Limiter) ist verdammt viel unspielbar. Zumindest bei Crossfire.
 
Cat Toaster schrieb:
Ich hab Skyrim mittlerweile aufgegeben.

Wenn Du gute Monitore hast:



braucht man gar keinen Fix, sondern dreht nur die Monitore. Dann geht es nativ (wie bei vielen anderen Softwarepaketen, zb. alles was Unreal-Engine ist).
 
HisN schrieb:
Wenn Du gute Monitore hast:
braucht man gar keinen Fix, sondern dreht nur die Monitore. Dann geht es nativ (wie bei vielen anderen Softwarepaketen, zb. alles was Unreal-Engine ist).

Du willst sagen, Monitore mit Pivot. Zu dumm, dass von meinen 3 TFTs nur 2 mit Pivot sind. Weisst Du per Zufall, ob Mass Effect so auch auf allen dreien läuft?
 
Zurück
Oben