News Die Multi-GPU-Mikroruckler: Der Stand der Dinge

Bei SFR oder ATIs Tiling-Lösung skailert nur die PS-Leistung, weil beide Chip die komplette Geometrie berechnen müssen.

Ach... und bei AFR etwa nicht??? Ist doch Jacke wie Hose.
 
Ích find´s gut das Nvidia und Ati/Amd sich damit beschäftigen, aber alle die Sli/Crossfire oder eben X2 karten haben sagen sie hätten nie mikroruckler,ich hatte selber 2 7600gt´s und hab auch nie was feststellen können.
 
@43: Das liegt daran, dass du mit einem SLI-Gespann selten unter 30 FPS kommst. Über 30 FPS reduziert sich das Problem auf ein Minimum und ist vielleicht noch mess-, aber nicht mehr spürbar.
 
Auch wenn ich damit die alte Diskussion lostrete...

60FPS im SLI, wenns blöd läuft werden immer zwei Frames direkt nacheinander dargestellt, also ohne zeitlichen Versatz dazwischen, was effektiven 30FPS entspricht. Nur sind 30FPS nicht wirklich flüssig.

Ist aber im Prinzip wurscht. Wenn ich schon (einen ordentlichen Batzen) Geld in Multi GPU Lösungen investiere interessiert es mich nicht die Bohne, ob der Effekt sichtbar ist oder nur in Messungen auftaucht, der Kram hat gefälligst ordentlich zu funktionieren, alles andere ist in meinen Augen ein Produktmängel.
 
Zuletzt bearbeitet:
@Bitcatcher
Das ist einfach nur falsch.
Was sind schon 30fps? Bei Single Karten sind 30fps bei weitem nicht flüssig, also wird man auf jeden Fall ein deutliches Mikroruckeln bei Multigpukarten und 30fps haben.

Selbst wenn es 60fps wären, eine Singlekarte bringt 40fps auf den Teppich und ist dann genauso flüssig.
----

Wenn NV/AMD wirklich das Problem lösen, wäre es toll bleibt der typische Input Lag und die SLI/CF Effizienz.
Aber nach der News zu urteilen verschiebt NV immer ein Frame nach hinten, also jedes zweite Frame ist veraltet, wenn es am Bildschirma ankommt. Imho keine Lösung, auf dem Papier ist zwar alles geregelt, aber wenn die Frames einfach zwischengelagert werden ist das nicht toll.
 
Im Prinzip müssten sie nur die Frametimes messen und evtl. vorrauseilende Karten für ein paar ms pausieren. Das ist zwar keine perfekte, aber imo eine beinahe perfekte Lösung, da direkt aufeinander folgende Frames meist recht ähnliche Rechenaufwände aufweisen. Dementsprechend sollten Korrekturen recht selten passieren und auch die geliebte Balkenlänge kaum merklich abnehmen.
Das macht dann eben die eh schon viel zu komplizierten Treiber noch ein stück komplizierter. Wahrscheinlich machen sies im Endeffekt sogar genau so, nur dauert das wieder Monate, weil eine Änderung in dem Maße direkt Projektstärke annimmt.
 
Also mit nem Puffer kommts dann doch irgendwie immernoch zu nem "ruckler" (oder "lag")...
Wenn Bild 1 berechnet wird, dann Bild2 berechnet wird, aber zu schnell fertig ist, bevor Bild3 berechnet wird, dann wird Bild2 einfach so lang zurückgehalten, bis es wieder zu Bild 3 passt - Bild 2 ist veraltet, Bild3 aber nicht - Lag/ruckler
-> Keine richtige Lösung.

Ausserdem glaube ich nicht, dass 60 FPS bei MultiGPU automatisch 30 FPS sind :lol:
Es bleiben ja 60Bilder je Sekunde, nur dass die eben nicht genau alle XXms kommen. Sind dann trotzdem noch mehr als 30 FPS. Milchmädchenrechnung.
So weise scheinst du also gar nicht zu sein WiseGuy :D

Zum Thema Stromsparen:
Lieber 2 schwächere Chips, wo dann einer deaktiviert wird im Idle, als eine dicke Karte, die auch im Idle nen extrem hohen verbrauch hat.
Der Verbrauch einer einzelnen Ultra ist ja schon jenseits von gut und böse. Aber im gesamten PC Bereich ist der Stromverbrauch der einzelnen Komponenten angestiegen.
Erst jetzt bei Multi-GPU lösungen rumzuschreien ist auch falsch ;)

PS: Wer erinnert sich noch an die 3dfx Karten mit eigenem Netzteil :D
 
da ging n aufschrei durch die mange als das extra netzteil angesprochen wurde xD naja heutzutage haben wir dafür netzteile im KW-bereich und niemand meckert :rolleyes:
 
Was soll sein mit dem Netzteil?
Ob ein Highend PC 300W oder 1000W zieht juckt nicht die Bohne. :)

Diese falsche Heuchelei wird immer schlimmer, einerseits mit 200000W Autos rumheizen, andererseits bei 5W am PC knausern.

Aus einer ordentlichen Dose sollten 16A*230V = 3680W kommen, also jetzt mal halblang, 600W sind ein Witz, da geht noch viel mehr.
 
Sophosaurus schrieb:
Ach... und bei AFR etwa nicht??? Ist doch Jacke wie Hose.

bei afr muss jede gpu nur die geometrie "ihres" frames berechnen (bei sli also nur jedes 2. bild)
bei sfr muss jede gpu die komplette geometrie berechnen

klingt für mich nach nem großen unterschied
aber wenn du die doppelte arbeit als egal ansiehst ist das auch ok
 
@Sophosaurus

Nein, bei AFR nicht, weil dort jeder Chip die Geometrie seines eigenen Frames berechnet. Es ist also nicht Jacke wie Hose.

/edit: da war ich wohl knapp zu langsam
 
Lies doch meinen Beitrag nochmal @ MD5003, besonders diese Stelle:
WiseGuy schrieb:
(...) wenns blöd läuft (...)

Soll heißen, daß es durchaus vorkommen kann, und verschiedentlich auch tut, es muß nicht immer so sein. Rechnerisch hast Du zwar 60FPS, wenn aber die Verteilung derart unglücklich ausfällt wirken die 60FPS trotzdem wie 30, da dann zwei Bilder gleichzeitig, ohne Versatz, dargestellt werden und bis zum nächsten Framepaar 33,333ms vergehen statt 16,667ms zum nächsten Einzelframe.

Ein realistisches Beispiel (3DMark2006, 2304x1440, 4xAA/16xAF, CANYON FLIGHT): läuft im SLI Betrieb mit 34FPS. Durch die ungleichmäßige zeitliche Verteilung von im Schnitt 45ms zwischen zwei Framepaaren wirkt das Ganze aber eher wie 22,2FPS.
 
Zuletzt bearbeitet:
MD5003 schrieb:
Also mit nem Puffer kommts dann doch irgendwie immernoch zu nem "ruckler" (oder "lag")...
Wenn Bild 1 berechnet wird, dann Bild2 berechnet wird, aber zu schnell fertig ist, bevor Bild3 berechnet wird, dann wird Bild2 einfach so lang zurückgehalten, bis es wieder zu Bild 3 passt - Bild 2 ist veraltet, Bild3 aber nicht - Lag/ruckler
-> Keine richtige Lösung.

So ist das doch garnicht gemeint.

beispiel ungleichmäßige Frametimes bei 60fps :

- nehmen wir den extremen Fall das beide Bilder nach 2*16.6 =33,3ms kommen
- dann kommen die nächsten 2 bei 66,6ms usw

Monitor hat nun einen Puffer von 3 Frames
- die "vollaufphase", also die ersten 3 Frames ignorieren wir und gehen nur auf die folgenen ein.

Also der Ablauf grob :

Bilder kommen bei :

1 - 33
2 - 33
3 - 66
4 - 66
5 - 100
6 - 100

hier sieht es aus als würden aus den 60fps nur gefühlte 30fps werden.

Nun kommt der Monitor ins Spiel der verzögert :

Bilder werden gezeigt bei :
1 - 50
2 - 66
3 - 83
4 - 100
5 - 117
6 - 133

Zu diesen zeiten sind sie im Monitor verfügbar und jedes wird genau 16.6ms gezeigt -> gefühlte 60fps -> mikroruckler komplett geglättet.


Der Lag ist indes kein Stück höher wie bei einer Single-GPU auf dem gleichen Monitor.
 
Ach... und bei AFR etwa nicht??? Ist doch Jacke wie Hose.
Nein, eben nicht. Bei AFR wird auch die Geometrie beschleunigt, da beide GPUs mit der Geometrie aus zwei verschiedenen Bildern rechnen können. Das geht bei SFR und Super Tiling nicht. Wobei SFR und Super Tiling darüber hinaus wohl noch das Problem haben, dass viele aktuellen Rendertechniken nicht kompatibel damit sind.

Schon einer getestet oder handelt es sich hier nicht um CF Ruickler?
Dabei handelt es sich NICHT um die Mikroruckler, es ist ein anderes Problem gemeint!
 
Wäre man konsequent, würde man alle SLI- und CF-Gespanne bzw. Karten wegen Unvergleichbarkeit aus allen Benchmarks und Tests rauswerfen oder separat ranglisten. Anscheinend hat man über Jahre (oder seit es AFR gibt) immerzu Äpfel mit Birnen verglichen.
Ich hoffe dass da AMD und NVidia diesmal wirklich eine technische Lösung für dieses Problem bereitstellen, die nicht wieder nur Augenwischerei ist.
 
Achtung Sarkasmus:

Am Ende suchen beide Hersteller nach einer Möglichkeit, wie man Frametime Tools aushebeln kann.
 
Zurück
Oben