Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

Dual GPUs sind auf jeden Fall ein interessantes Thema. Ich verstehe auch gar nicht, wo das Problem bei den unterschiedlichen Frametimes besteht. Es muss doch einfach nur ein Scheduler eingebaut werden, der die Ausgabe des Frames ggf. etwas verzögert und die Frames so gleichmäßig über die Zeit verteilt. Ich kann mir nicht vorstellen, dass das so ein riesen Problem sein soll, kenne mich aber mit Treiber-Entwicklung auch nicht aus, vielleicht kann mich ja hier jemand aufklären :) wenn das Problem aus der Welt wäre, würde dem Siegeszug der Dual GPU-Karten nichts mehr im Weg stehen, die Treiber sind inzwischen ziemlich gut, in den meisten Spielen bringt die 2. GPU große Zugewinne.

Ich finde das Konzept von AMD mit 2 GPUs auf einer Platine aber deutlich besser als das von nVidia, denn es ist irgendwie sauberer und man kann leichter den Kühler tauschen. Wenn die Hersteller jetzt noch einen gemeinsamen RAM für beide Chips unterbringen, wirds bis 2010 im "Enthusiast"-Bereich nicht mehr ohne Dual GPU gehen!
 
stna1981 schrieb:
Dual GPUs sind auf jeden Fall ein interessantes Thema. Ich verstehe auch gar nicht, wo das Problem bei den unterschiedlichen Frametimes besteht. Es muss doch einfach nur ein Scheduler eingebaut werden, der die Ausgabe des Frames ggf. etwas verzögert und die Frames so gleichmäßig über die Zeit verteilt.


Nehmen wir 28,5 fps als Beispiel. Also Frametimes von im Mittel 35 ms. In Wirklichket kommen sie aber nicht mit 35:35, sondern mit 60:10, was katastrophales Mikroruckeln wäre und sich eher wie 16,7 fps anfühlt (kann man nachrechnen). Wenn du jetzt den zweiten Frame mit einer Verzögerung von 25 ms ausgibst, dann merkt man das. Deutlich!

[edit]Die erste Erklärung war doof[/edit]
 
Zuletzt bearbeitet:
Wenn ich aber den zweiten Frame mit einer Verzögerung von 25ms ausgebe, also nach 35ms, dann sinkt der Abstand zum dritten Frame von 60 auf? Genau, 35 und alles ist wieder im Lot. Aus

60
10
60
10

wird dann

60
35
35
35

Dann hat man nach dem allerersten Frame ein Ruckeln, ich denke das lässt sich verkraften ;)
 
Im Prinzip ja. Aber wenn du jeden zweiten Frame um 25 ms verschiebst, um wieviel können sich da (vor allem bei schnellen Sachen wie Shootern) die Objekte auf dem Bildschirm schon weiterbewegt haben? Es würde im schlimmsten Fall unrund aussehen.
 
schöner test, allerdings schade das nicht die vorgänger doppel gpu 9800GX2 zum vergleich mitgetestet wurde :-(
 
Um 25 ms verzögern sehe ich als unkritisch. Oder was denkst du, weit weit sich Gegner in den 60 ms bis zum dritten Frame weiterbewegt haben ;-) 25 sind vernachlässigbar für den normalen Spieler, wer Profispieler ist schraubt wahrscheinlich eh die Details so weit runter, wie nötig, um maximale fps zu bekommen, der wird gar net erst mit 35 fps spielen wollen!

Bei nur einer Karte wären es genauso 35ms zum nächsten Frame, das wär nix anderes. Da beschwert sich niemand über Detailverlust. Deine Argumentation kann ich nicht nachvollziehen.

Es gibt ja schon einen guten Ansatz, der bereits seit August existiert, von einem ehem. ATi-Mitarbeiter, siehe hier:
http://www.pcgameshardware.de/aid,656162/News/Ex-AMD-Mitarbeiter_zeigt_Loesung_fuer_Mikroruckler/
Schon eine Sauerei, dass die beiden (AMD, nVidia) es bis heute net geschafft haben, mal eine ernünftige Lösung zu entwickeln...
 
Zuletzt bearbeitet:
stna1981 schrieb:
25 sind vernachlässigbar für den normalen Spieler, wer Profispieler ist schraubt wahrscheinlich eh die Details so weit runter, wie nötig, um maximale fps zu bekommen, der wird gar net erst mit 35 fps spielen wollen!

Joah, und in den höheren fps-Bereichen merkst du von Mikrorucklern eh nix mehr. Problem gelöst! Warum also eine Softwarelösung suchen? :evillol:

stna1981 schrieb:
Bei nur einer Karte wären es genauso 35ms zum nächsten Frame, das wär nix anderes. Da beschwert sich niemand über Detailverlust. Deine Argumentation kann ich nicht nachvollziehen.

Du gehst davon aus, dass die Berechnung für jeden Frame immer gleich lang dauert. Das tut sie aber in der Praxis nicht. Große Lücken entstehen zum Beispiel, wenn eine Textur im VRAM nicht vorliegt und erst über die CPU vom System-RAM geholt werden muss.

Und gerade da kommen aber bei Multi-GPU die krass unterschiedlichen Frametimes zustande, weil die zweite GPU ja wenig später die selbe Textur braucht, sie aber schneller kriegt, weil sie ja schon im Cache liegt.

Was ich die ganze Zeit sagen wollte: Ganz so einfach wirds nicht gehen, sonst hätten sie's ja so gemacht.
 
@ stna1981:

Ist doch einfach. Ein Bild, was für den Zeitpunkt x gerendert wurde, wird erst zum Zeitpunkt y ausgegeben... Im Extremfall nennt man sowas unrund..

Nebenbei ist bei deiner Technik nicht gegeben, dass das Bild, was du zum Zeitpunkt x + 35ms ausgeben willst, auch wirklich schon vorhanden ist. Was machst du dann? Das übernächste Bild wieder nach hinten verschieben?
 
stna1981 schrieb:
Es gibt ja schon einen guten Ansatz, der bereits seit August existiert, von einem ehem. ATi-Mitarbeiter,...

Bei 3dfx gabs auch keine µ-Ruckler ^^
 
Begehmann schrieb:
Joah, und in den höheren fps-Bereichen merkst du von Mikrorucklern eh nix mehr. Problem gelöst! Warum also eine Softwarelösung suchen? :evillol:

Sinn und Zweck einer Multi GPU-Lösung ist es doch, spielbare Frameraten zu erreichen, wo eine Karte nicht ausreicht, z. B. bei Crysis. Wenn ich da maximale Qualität will, komme ich mit einer GTX vielleicht auf 20 fps. Mit zwei im Idealfall auf 38-40. Und das ist schon ein grenzwertiger Bereich. Wenn ich die Auflösung und Details immer so weit runterschraube, dass ich über 50fps bleibe, dann kann ich mir auch die zweite Karte sparen.

Begehmann schrieb:
Du gehst davon aus, dass die Berechnung für jeden Frame immer gleich lang dauert. Das tut sie aber in der Praxis nicht. Große Lücken entstehen zum Beispiel, wenn eine Textur im VRAM nicht vorliegt und erst über die CPU vom System-RAM geholt werden muss.

Und gerade da kommen aber bei Multi-GPU die krass unterschiedlichen Frametimes zustande, weil die zweite GPU ja wenig später die selbe Textur braucht, sie aber schneller kriegt, weil sie ja schon im Cache liegt.

Naja, da haben wirs doch, wenn der Treiber merkt, dass er die Textur grade für GPU1 in Zeit x aus dem RAM in den Cache geladen hat, dann weiß er das ja, wenn GPU 2 die gleiche Textur anfordert. Di Zeit, die er gespart hat, wartet er dann einfach, bevor er mit der Berechnung des Bildes beginnt. Dadurch entsteht auch nicht das von dir erwähnte Problem, dass der Bildinhalt veraltet ist, das Bild wird net berechnet und dann gewartet, sondern umgekehrt.[/quote]

Begehmann schrieb:
Was ich die ganze Zeit sagen wollte: Ganz so einfach wirds nicht gehen, sonst hätten sie's ja so gemacht.

Klar, innerhalb von einer Woche lässt sich da keine Lösung finden, aber es geht ja jetzt schon ein 3/4 Jahr so :(

H3rby schrieb:
@ stna1981:
Ist doch einfach. Ein Bild, was für den Zeitpunkt x gerendert wurde, wird erst zum Zeitpunkt y ausgegeben... Im Extremfall nennt man sowas unrund..

s. o.

H3rby schrieb:
@ stna1981:
Nebenbei ist bei deiner Technik nicht gegeben, dass das Bild, was du zum Zeitpunkt x + 35ms ausgeben willst, auch wirklich schon vorhanden ist. Was machst du dann? Das übernächste Bild wieder nach hinten verschieben?

Nein, es wird ausgegeben, sobald es fertig ist, so wie es eine normale GPU auch machen würde. Das Problem bei Mikrorucklern (Gott, wie ich das Wort hasse) ist eher, dass Frames zu früh ausgegeben werden, nicht zu spät. Wenn eine GPU länger brauchen würde, käme es ja auch zu einem fps-drop, das ist net nur bei MGPU so. Sicher kann man vorher net wissen, wie schnell ein Frame berechnet werden kann, daher muss man a) eine Statistik führen und daraus die durchschn. Zeit zwischen den Frames berechnen (Abweichungen von 10 oder so sind net so tragisch) und b) versuchen - wenn möglich - die Frames an diese Zeit anzugleichen, z. B. in dem man bei einer GPU mit der Berechnung später beginnt.

Das ist i. Ü. auch genau der Ansatz des Ex-AMD-Mitarbeiters (siehe Link oben), der _scheint_ ja zu funktionieren...
 
stna1981 schrieb:
Sinn und Zweck einer Multi GPU-Lösung ist es doch, spielbare Frameraten zu erreichen, wo eine Karte nicht ausreicht, z. B. bei Crysis. Wenn ich da maximale Qualität will, komme ich mit einer GTX vielleicht auf 20 fps. Mit zwei im Idealfall auf 38-40. Und das ist schon ein grenzwertiger Bereich. Wenn ich die Auflösung und Details immer so weit runterschraube, dass ich über 50fps bleibe, dann kann ich mir auch die zweite Karte sparen.

Das stimmt so jetzt auch wieder nicht. Als User kaufe ich mir, was ich mir leisten kann und versuche dann die Qualität so einzustellen, dass sie möglichst gut ist, ohne dass es dabei zu ruckeln anfängt.

Während das gute alte PAL-Fernsehen jetzt mit 25 Bildern pro Sekunde auskommt, weil alle Frametimes exakt gleich sind, reichen aufgrund der variablen Framezeiten die eine Graka erzielt, je nach Varianz nicht mal 38-40 Bilder pro Sekunde damit es flüssig aussieht, wie du ja in deinem Post selbst sagst.

Es mag jetzt funktionieren, dass die Darstellung flüssiger erscheint, wenn ich die Bildwiederholrate senke um auch die Varianz kleiner zu kriegen. Nichts anderes bedeutet dein Vorschlag bzw. der des AMD-Mitarbeiters. Das Gelbe vom Ei finde ich die Lösung aber nicht, immerhin soll dadurch ein Problem gelöst werden das ohnehin schon durch "zu wenig" Bildwiederholrate ausgelöst wird.
 
Mir reicht es, wenns flüssig aussieht. Ob das jetzt mit 25 oder 60 fps läuft, is mir relativ egal, flüssig is für mich flüssig ;-)
 
Gestern gabs die GTX295 kurz für 399€ und sogar verfügbar bei diesem Shop, weiß aber nimmer welcher jetzt ist das günstigste leider wieder 439€, schade binn gespannt ob Nvidia das Problem mit den einbrechenden Frames bei 4AA in den griff bekommt, ist ja bei der GTX260SLI auch nicht so.
 
Beim Treiber vornedran war das Problem mit 4xAA nicht so gravierend, z. B. bei Warhead, scheint also kein generelles Problem zu sein...
 
@ milamber!

Hast du irgendwelche Probleme? Ich habe nichts bezüglich Unterschieden aufgeführt ... also halte dich bitte zurück, ist zudem OT.
Wieder die Unterschiede in den Reviews am Rechtfertigen?
Siehst du dergleichen? Lesen statt behaupten hilft ...

@ d-Raven-b
Es ist dir aber schon klar, dass die Ati Grafikkarten den NV's in purer Rechenleistung (FLOPS) überlegen sind? [...] allerdings könnte man beim GPGPU-computing theoretisch alle 800 SPUs nutzen.
Theoretisch ja. Allerdings ist das recht schwer, daher ist das FLOPS-Argument eher halbgar. Vor allem - warum die Leistung nicht für eine gute BQ nutzen? Oder ist das gar nicht gewollt und man giert nur nach hier kürzesten Balken? Ich weiß es nicht und es ist mir egal. Beide Converter bieten mir zu wenig Qualität. Qualität kostet eben mehr.
Ob Physx allerdings Zukunft hat, bezweifle ich. Ich denke mit DX11 ist das Geschichte.
Was hat PhysX mit DX11 zu tun? Eine Physik-Engine brauchts weiterhin und warum nicht diese seit langen erfolgreiche Bibliothek der Novodex-Engine nutzen, statt was neues zu proggen?

cYa
 
Zuletzt bearbeitet:
y33H@ schrieb:
@ Pickebuh

Zitat:Zitat von CB
In einem kurzen Vergleichstest bezüglich der Bildqualität konnte der ATi Video Converter nicht ganz das Niveau vom AVS Video Converter (CPU) sowie BadaBOOM von Elemental (GPU) erreichen. [...] die Bildqualität muss sich (bei gleichen Programmeinstellungen) der Konkurrenz allerdings geschlagen geben

Zitat:Zitat von PCGH
und das mit durchwachsener Qualität: Im WMV-Zielformat traten großflächig Bildfehler auf und auch die MPEG-4-Datei wies im Vergleich zu anderen Programmen [/B]keine gleichgute Bildqualität auf[/B] - auch andere Reviews wie das von PCPerspective.com haben dies bemängelt.


Soviel dazu ... schnell, aber schei0 Quali? Setzen, 6, Ziel verfehlt.

cYa

Oh man ... Ich gebs auf ! :rolleyes:

Wenn du eine gerigfügig schlechtere Qualität als Scheixx bezeichnest ist dir wirklich nichtmehr zu helfen !

Und wie schon gesagt das der Converter noch einige Bugs besitzt ist bei einem Produkt was nur die Aufgabe hat einen kleinen Vorgeschmack von der Leistung von Steam zu vermittel ist nicht weiter tragisch oder verwunderlich.

Aber man kann natürlich das Ergäbnis immer anzweifeln oder schlecht reden.
Das scheint bei den NV-Fanboys mittlerweile immer mehr in Mode zu kommen.
 
Ich bin enttäuscht von nvidia 460 € ist das Teil einfach nicht wert. Aber wie siehts nun mit SLI aus kann ich daran eine 260er anbinden :) ??
 
echt nen schöner Test. Aber ich hätte mir mehr von der GTX 295 erwartet. Für mich hat die HD 4870 X2 immer noch den entscheidenen Vorteil......die Lautstärke.
 
Fakt ist, dass für Normaluser sowohl die X2 als auch die GTX295 zu laut sind. Um eine manuelle Regelung der Lüftergeschwindigekit wird man also in beiden Fällen kaum herumkommen. Zumal sich die Lautstärkewerte der beiden Karten in anderen Tests anders darstellen, z.B. hier: http://www.hardwareluxx.de/cms/artikel.php?action=show&id=675&seite=7.
 
Zurück
Oben