Microruckler für alle : Testprogramm für SingleGPU Nutzer

Nur weil es "nur" Crysis gibt, welches extreme Anforderungen hat, heisst es nicht dass das auch so bleibt.
richtig ... und dann muss ich halt mit Abstrichen rechnen oder eben aufrüsten ... ich kann mir nunmal keine Graka kaufen und glauben das die auch aktuelle Games in 5 Jahren noch flüssig in bester Grafikpracht und höchsten Auflösungen darstellen kann ...

ich kann mich ja auch nicht beschweren wenn ich im VW sitzend immer wieder vom Porsche überholt werde ...

nur darf ich mich dann halt auch nicht beschweren wenns mal ruckelt.
 
Zuletzt bearbeitet:
Anstatt immer auf die Hardware zuschimpfen wäre es mal sinnvoll weiter zudenken.

Ich glaube immer mehr das es ein Software (Spiele,Treiber) Problem ist. Es fehlt einfach die SLI/CF optimierung.
Gab sogar ne recht gute Erklärung hier bei CB ... Review 3-Way SLI.
 
5 Jahre? Wo hab ich das geschrieben? Wie kommst du auf 5 Jahre?
 
Zuletzt bearbeitet:
wieviele Jahre ist ja egal, das hängt davon ab wie schnell die Spieleprogrammierer die neueste Karten auslasten ... woraufs ankommt ist halt das ich mit "alter" Hardware eben kein Superleistung erwarten darf. Was jetzt nicht heist das mit "alter" Hardware nix mehr läuft, nur muss ich eben Abstriche hinnehmen ...
 
Jetzt ist es auf einmal egal? Ich denke das macht schon einen Unterschied ob ich aktuelle Spiele mit einem SLI System flüssig spielen will das 5 Jahre alt ist oder nur 1 Jahr alt.

Wenn ich dann mit meinem 1 Jahr alten System in dem neuen Spiel zwar theoretisch mind. 20-40 FPS wunderbar spielbar habe, ist es trotzdem unspielbar durch die MR. Und genau da liegt der Punkt. Ich kaufe mir keine Hardware die nicht zu 100% nutzbar ist. Oder kaufst du dir ein Auto was zwar 200 PS hat (und auch dementsprechend kostet) aber dafür an nem Berg gerade so schnell hochkommt wie ein 100 PS Auto?
 
Zuletzt bearbeitet:
oh man ... klar macht des einen Unterschied ... wenn ich halt mit "alter" Hardware in den Bereich komme wos anfängt zu ruckeln, muss ich mich halt entscheiden damit zu leben oder aufzurüsten ... das ist aber nun wiederrum unabhängig von CF/SLI und MR ... irgendwann ist halt mal Ende der Fahnenstange für alte Hardware erreicht ... nur wenn du aktuelle Hardware und Spiel nutzt und mit CF/SLI nur 30FPS oder weniger hinkriegst, dann machste sicher was falsch .. klar nen SLI mit 4er Gforce kommt da schon in Bedrängnis ... aber da wirds dann halt Zeit mal aufzurüsten oder mit den Abstrichen zu leben.

War doch vor CF/SLI auch nicht anders wenn du aktuelle Spiele flüssig spielen wolltest musstest du aufrüsten oder damit leben... ist mit CF/SLI auch nicht anders ...nur kommste mit der Leistung halt etwas weiter ...
 
Zuletzt bearbeitet:
Verstehst du das nicht? Wenn die MR nicht wären, wären diese Spiele wunderbar spielbar.
Warum soll ich früher aufrüsten als ich eigentlich muss? Das ist rausgeschmissenes Geld!
 
naja mit SLI/CF hast du dann 20 bis 40FPS ... und mit Single dann 5 bis 10 FPS? und das ist dann spielbarer ?
 
20-40 Theoretisch. Die MR lassen es aber wie 10-20 fps erscheinen.

Ja, wenn ich nur eine Karte drin hab muss ich mir nur 1 neue Karte kaufen. Ende. Beim SLI System hab ich dann umsonst Geld ausgegeben als ich es mir gekauft habe, weil es nicht die Leistung bringt die es eigentlich bringen sollte.
Ok, umsonst ist wohl etwas übertrieben ausgedrückt, aber ich habe zu viel Geld ausgegeben für Leistung die es eigentlich geben sollte, es aber nicht gibt. Ich muss mir somit viel früher neue Karten kaufen.
 
Zuletzt bearbeitet:
serra was spielst du denn so auf 2560*1600 mit AA ?

nur mal ein paar beispiele aus dem CB Test mit der 4870x2 :

- cod4 - 60fps avg(also nicht durchgängig)
- jericho unter 40fps
- vegas 53fps
- stalker 47fps
- bioshock 65 ohne AA
- coj 31fps
- coh - 61fps, auch hier im durchschnitt
- wic - 35fps


fazit : Die Karte fällt ständig weit unter 60fps. Außer natürlich Cb hat das System nicht richtig aufgesetzt :rolleyes:

Bei 280gtx sli sieht das nicht groß anders aus.

naja mit SLI/CF hast du dann 20 bis 40FPS ... und mit Single dann 5 bis 10 FPS? und das ist dann spielbarer ?

300% skalierung, das schon der Wahnsinn.
 
serra.avatar schrieb:
War doch vor CF/SLI auch nicht anders wenn du aktuelle Spiele flüssig spielen wolltest musstest du aufrüsten oder damit leben... ist mit CF/SLI auch nicht anders ...nur kommste mit der Leistung halt etwas weiter ...

Ja, aber kannst du dir ja mal ausrechnen:
- Mehrkosten für Mainboard
- Grösseres Netzteil
- Höhere Stromrechnung
- 2 Grafikkarten

Doppelter Preis wäre da noch zu viel, aber wie du siehst ist es wohl eher der dreichfache Preis. Und dafür bekomme ich im unteren FPS Bereich nur die Leistung von einer Singlekarte?
Wo ist da der Sinn?
 
Öhm mal was anderes ... ausser gezanke :rolleyes:

Weiss jemand ob der SidePort in irgendeiner Form in Beta treibern oder den aktuellen schon aktiv ist ??

Die zusätzlichen 5 GB/S sollten sich doch auch positiv auf die MR auswirken.

mfg
 
Laut AMD wird der erst mit kommenden Treibern aktiviert ... so wie neue Treiber Powerplay 2.0 verbessern :lol:

@ serra.avatar

Nur weil ne X2 bei CB in den Benches skaliert, muss sie das nicht im ganzen Spiel tuen. Und du weißt auch nicht wie anspruchsvoll deren Szenen sind.

cYa
 
Hey Realsmasher

Zuerst einmal ein dickes Lob, dieses Tool ist wirklich genial, aber ich hätte da noch einen Vorschlag:

Ich weiss zwar nicht, ob es schon vorgeschlagen wurde, aber könntest du bitte im Quizmode die Fps wählbar und nicht zufällig machen. Schliesslich ist es ohnehin sinnfrei die Fps zufällig zu wählen, wenn sie angezeigt werden, und ausserdem könnte man "seine MR-Grenze" besser testen.

Man könnte dann testen, zu wieviel % man bei 60 fps richtig, bzw. falsch liegt, oder bei 30 und so besser bestimmen, wieviele fps man persönlich braucht, um den Unterschied nicht mehr zu erkennen.

Btw: Ist im Quizmode das Delay zufällig gewählt? Wenn nein, kannst du das integrieren?

Mfg snidoom
 
LEUTE

DON'T FEED THE TROLLS!!!

Ignoriert diesen "serra.avatar" Typen einfach, der schreibt nur Scheiße und lässt die Diskussion hier völlig ausufern. Der ganze Thread ist auf den letzten drei Seiten nun mit diesem Schwachsinn vollgemüllt!
 
Das Problem ist komplexer, als es auf den ersten Blick scheint. ;)
Für die kleinen Ruckler gibt es mehrere Ursachen. Nicht nur MultiGPU-Systeme sind betroffen. Ich habe momentan nur ein SingleGPU-System, aber auch da ruckelt es fröhlich bei z.B. 50FPS, während 30FPS glatter erscheinen.

Folgende Ursachen beeinflussen den Spielgenuss:
  1. Framerate bricht ein (klar, darüber brauchen wir nicht diskutieren)
  2. Mikroruckler bei unterschiedlichen Frametimes (kann ich mangels Hardware nur über das Tool hier beurteilen - und das simulierte worst-case-Szenario ist absolut schockierend)
  3. Interferenz mit der Wiederholfrequenz des Monitors (kann sehr nervig sein - nicht nur beim Zocken)
Eine vereinfachte Darstellung von 0,5Sek. zur Verdeutlichung:
Code:
30FPS x   x   x   x   x   x   x   x   x   x   x   x   x   x   x
40FPS x  x  x  x  x  x  x  x  x  x  x  x  x  x  x  x  x  x  x  x
50FPS x x x  x x  x x x  x x  x x x  x x x  x x x  x x x  x x  x
60FPS x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x

60Hz  x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x
Die Grafikkarte sendet pro Sekunde 60 Bilder an den Monitor (60Hz). Es werden also immer, völlig egal wie hoch die Framerate ist, nur 60 Bilder angezeigt.

Sobald ein x in der FPS-Zeile nicht auf ein x in der 60Hz-Zeile passt, wird dieser Frame erst beim nächsten "Update" des Monitors angezeigt. Wie man sehen kann, passt bei 60Hz nur für 30FPS und 60FPS das Raster. Bei anderen Frameraten gibt es immer einen Konflikt mit der Bildwiederholfrequenz des Monitors und somit Verzögerungen der Frames - Ruckeleffekte.

Das ist ein Problem und davon sind nicht nur MultiGPU-Setups betroffen.

Bei mehr als 60FPS fällt es dann nicht mehr auf, weil viele Frames gar nicht angezeigt werden und die Unterschiede zwischen den Frames in der Regel recht klein sind.
 
Ruckeleffekte (durch den von dir beschriebenen Sachverhalt) gibt es nur bei aktivem vsync, ansonsten hast Du Tearing, welches gerade beim Wechsel vom CRT zum TFT Bildschirm sehr auffällt.

Bin ich glücklich noch nen CRT zu haben. Crysis schön flüssig in 1024x768 mit 4xAA und 16xAF (ca. 35% schneller als bei 1280x1024!) und schöne smoothe 85Hz in den Spielen ;-)
 
Zuletzt bearbeitet:
Realsmasher:

bei deriner ersten rechnung hast du ein delay der frames von 10ms nicht 5ms.

beim zweiten sidn es gar 30ms.


hier nochmal eine rechnung für 5ms und für 15ms bei 30fps :

33ms pro Bild bei Einzelkarte.
66ms für 2 Bilder bei dual gpu.

mit 5ms delay :

bild 1 bei 33ms, bild 2 bei bei 38ms, bild 3 bei 99ms.

Das macht einen frameabstand zwischen 2 und 3 von 61ms was lediglich 16,4fps entspricht

für 15ms delay :

bild 1 bei 33, bild 2 bei 48ms, bild 3 bei 99ms.

Hier haben wir nur einen frameabstand von 51ms zwischen bild 2 und 3 was 19,6fps entspricht.

Das versteh ich dann aber imme noch nicht.
Wenn man sich an dem CB-Test orientiert siehe -> https://www.computerbase.de/2008-08/test-ati-radeon-hd-4870-x2/24/#abschnitt_problem_mikroruckler

Dort sieht man den Verlauf wie folgt bei Call of Juarez (ungefähr aber die exakten Werte sind ja auch nicht so wichtig):

48ms-12ms-48ms-12ms

Aber das sind jeweils die "delta"-Werte !
Also in totaler Zeit ausgerechnet:
48ms-60ms-108ms-120ms-168ms-180ms-228ms

Das sind demnach 12ms delay oder wie rechnet das dann dein Programm ?
Aber bei deinem Programm treten 3 unterschiedliche Sorten Abstand auf wenn ich dein Rechnung richtig nachvollziehen kann:
bild 1 bei 33ms, bild 2 bei bei 38ms, bild 3 bei 99ms.

Also 33ms-5ms-61ms-33ms-5ms-61ms...

Das ist demnach nicht das "korrekte" mikroruckeln wie im CB-Test.

Ich finde dein Programm ist wirklich toll zur Simulation des Problems...aber ich glaube es "simuliert" noch nicht richtig.

Am besten du erklärst mal genau was dein Programm macht und welche Einstellung was bewirkt...so wie ich das sehe übertreibt das nämlich dir Ruckler schon sehr.
 
snidoom schrieb:
Ich weiss zwar nicht, ob es schon vorgeschlagen wurde, aber könntest du bitte im Quizmode die Fps wählbar und nicht zufällig machen.

Btw: Ist im Quizmode das Delay zufällig gewählt? Wenn nein, kannst du das integrieren?

kann ich machen, aber nur wenn noch weitere Vorschläge kommen, ansonsten lohnt eine neue Versino nicht.

das delay ist zufällig zwischen 10 und 25ms, unabhängig von framerate.



Das sind demnach 12ms delay oder wie rechnet das dann dein Programm ?
Aber bei deinem Programm treten 3 unterschiedliche Sorten Abstand auf wenn ich dein Rechnung richtig nachvollziehen kann:
bild 1 bei 33ms, bild 2 bei bei 38ms, bild 3 bei 99ms.

Also 33ms-5ms-61ms-33ms-5ms-61ms...

dein also ist falsch, denn es sind :

33-5-61-5-61-5-61

die ersten 33 entstehen nur einmal, beim ersten bild, eigentlich könnte man die auch weglassen, aber ich wollts halt genau beschreiben.



wie mein Programm das macht in diesem Fall :

a) es ignoriert das erste frame, weil irrelevant

b) es wartet 61ms und gibt ein frame in auftrag, dann wartet es 5ms und gibt wieder ein frame in auftrag, dann wieder 61ms usw.

Dadurch das jede aktuelle Grafikkarte dort >1000fps schaffen sollte verzögert sich das um weniger als 1ms(bei aktuellen grakas eher weniger als 250µs). genauer kann man es kaum simulieren.


Kannst gerne einen frameverlauf mit fraps machen und mit anderen frameverläufen von sli/cf systemen vergleichen, das nimmt sich nichts, außer das die realen systeme zusätzlich noch in den fps schwanken.
 
für mich sind simulierte programme, genau wie son theoretischer futuremark einfach "bullshit", sorry.

was zählt ist die realität in games und da sieht es irgendwie anders aus.

oder sind alle, die sagen, sie hatten noch nie probs mit sli/crossfire dann blinde hühner? :D
 
Zurück
Oben