Microruckler für alle : Testprogramm für SingleGPU Nutzer

Unyu schrieb:
Zb. mit Post #353.

Ist doch jetzt wirklich nicht neu, auch nicht für dich, das irgendwann das Wort CF/SLI in Verbindung mit µRucklern fällt.

Sofort sind 20 Leute zur Stelle und verkünden, das µRuckler ohne Belang sind...
Wenns hoch kommt, kommt der übliche Satz "stört nur bei 30 FPS...

Da kann man nicht behaupten es wäre eine Hype um die µRuckler, wenn praktisch kein Wort darüber fällt und wenn dann sofort von anderer Stelle unter den Teppich geschoben wird.

naja, da habe ich eine gänzlich andere Meinung drüber. Nur weil einige versuchen, versucht haben das MR problem hochzuhypen und es nicht geklappt hat regen sich einige auf. Selbst ich habe nie behauptet es gebe sie nicht. Nur treten sie hier meistens bzw oft nicht dermaßen stark auf, wies hier gerne welche propagieren. Im Endeffekt muss es sich jeder selber mal anschauen, da jeder unterschiedlich das Problem wahrnimmt. Außerdem ist die Aussage mit den 30fps nicht ganz falsch. In der Regel kann man sagen,wenn man stetig über 30fps MIN ist, dass sich die microruckler relativieren und man sie nicht mehr wahrnimmt (ich sagte nicht,dass sie nicht exisitieren). Und ab 60fps kann man sie gar nicht mehr wahrnehmen, selbst wenn sie zu 100% auftreten (was sie nicht mal in Extremfällen tun).

MR sind nur ein Problem, wenn du bei 30fps avg rumgurkst und die min fps mal gerne auf 20fps runter gehn (was bei single karten nicht wirklich tragisch ist), bei Dual GPU system aber mal gerne dann ausartet. Aber wenn dann wieder leute kommen und sagen multi gpu sei unspielbar, dann ist das ein Hype, nix anderes.

Realsmasher schrieb:
In Zeiten, in denen die ganzen Kiddies auf ihren superdollen 2ms 22" TNs zocken wundert es mich aber wenig das dieses Thema bei eben jenen keinen Anklang findet.
.

was ist denn soo schlimm an einem 2ms TN. objektiv gesehen macht es eh keinen sinn einen doppelt so teuren hochwertigen bildschirm zu kaufen,da der unterschied eh nicht mehr soo groß ist.


gruß
 
wer sich für 400€ 2 bzw (g)x2 grakas kauft wird sich im normalfall auch nen vernünftigen Monitor leisten können.

Und selbst wenn nicht bin ich der Meinung eine 4870/260gtx + va 24" liefert ein um welten besseres bild als x2/gx2/sli und 22er TN.


Die Sache ist einfach das die meisten 2ms zockertns diese werte mit massiven Overdrive erreichen.
Ich habe die these ja schonmal geäußert : je größer das inputlag, umso weniger fallen MR auf.


Aber das hier soll jetzt kein Monitor-Thread werden.
 
Ist wirklich interessant wie sich der Markt entwickelt hat. Scheinbar wird wirklich nicht mehr auf Qualität geachtet.
Mikroruckler, Inputlag, Schlieren, Ghosting, Mauslag, Bewegungsunschärfe, miese Schwarzwerte, Schatten- und Texturflimmern, laute Lüfter, mit unnützen und resourcenfressenden Features überladene Betriebssysteme und und und. Und dafür wird überall noch Geld verlangt.
Scheinbar haben sich die meisten aber schon an diesen ganzen Mist gewöhnt und nehmen ihn als normal hin. Einige verteidigen es sogar noch.
Wirklich traurig.
 
könnte gut sein. jedenfalls waren bei mir zumindest 2 4870er in verbindung mit ein viewsonic vp231wb (S-IPS) eine echte zumutung. auf jeden fall kann man die leute echt gratulieren die dieses problem nicht haben bzw nicht wahrnehmen =)
 
Muscular Beaver schrieb:
Ist wirklich interessant wie sich der Markt entwickelt hat. Scheinbar wird wirklich nicht mehr auf Qualität geachtet.
Mikroruckler, Inputlag, Schlieren, Ghosting, Mauslag, Bewegungsunschärfe, miese Schwarzwerte, Schatten- und Texturflimmern, laute Lüfter, mit unnützen und resourcenfressenden Features überladene Betriebssysteme und und und. Und dafür wird überall noch Geld verlangt....


naja, dann überleg dir mal woran das liegt. würde ATI bzw Nvidia nun eine Grafikkarte rausbringen, die langsamer ist als eine GTX280 (sagen wir mal 20%), dafür aber nahezu lautlos und stromsparender würde wohl kein großer andrang auf die karte entstehen. die Hersteller werden nicht von sich aus,sondern von uns zu so einem verhalten gezwungen.
was meinst du wieso MutliGPU systeme entwickelt wurden? eine Firma wird nur nach ihrem stärksten Pferd bewertet, oder was meinste wieso bis vor kurzem jeder dachte,dass jede Nvidia karte jeder ATI karte überlegen ist?
würden die Entwickler solange entwickeln,bis sie eine nahezu, wie du es sagst qualitativ hochwertige karte, haben, dann würden alle 3-4 jahre evt neue serien erscheinen. Würde das ein Kunde mitmachen? bzw wie will man das finanzieren? was würden sie dann kosten? über 1000euro? wer zahlt das dann wieder? wieso dann nicht

das gleiche bei bildschirmen. man könnte sich einen 10" OLED kaufen für 3000euro oder einen blasma an den rechner anschlißen für 600euro oder einen netten 22" TN für 150.. hierbei zahlt man nicht für qualität.
Miese Schwarzwerte, überleg dir mal wieso keine Blasmas benutzt werden. ich sag mal nur Desktop. Kannst du jetzt auf die schnelle ein Panel herstellen das ein "perfektes" Schwarz erzeugt, ein leuchtendes schwarz? LED TFT´s kommen erst noch. weißte wie schwer es ist 10 000 LED´s in ms anzusteuern? unterschiedlich, nicht gleichzeitig eine leuchstoffkathode zu dimmen?

Bewegungsunschärfe wird mittlerweile sogar in den meisten spielen mutwillig hervogebracht,scheint grad IN zu sein.

wer würde sich heute ein Betriebssystem zulegen, das aussieht wie windows 98 oder 95?


sorry,ist nix gegen dich,aber ich kanns net ausstehen wenn leute über alles meckern, dass alles so "sch***" ist, aber im prinzip nix besser machen und selber net bereit wären für eine richtige entwicklung den 4fachen preis zu zahlen. um fortschritte zu erreichen muss man kompromisse eingehen, sonst würden wir heute immer noch z.B. in Höhlen leben.


gruß
 
Genau das sag ich ja. Die Leute haben den Markt dorthin gebracht.
Keiner ist mehr bereit Geld für gute Qualität auszugeben (wo habe ich gesagt dass ich es nicht bin? Ich hätte z.b. schon lange ein Triple SLI System wenn diese verschissenen MR nicht wären).
Man muss überall nur noch Kompromisse eingehen. Oft sind das Kompromisse die man früher nichtmal annähernd in der Entwicklung eingegangen wäre.
Ist wohl Schuld der Geiz ist Geil Mentalität. Mir fällt auch auf dass es immer mehr Produkte gibt die noch vor 10-20 Jahren als fehlerhaft sofort eingestampft worden wären, aber die werden trotzdem billig verkauft.

Und ich kanns übrigens nicht ausstehen wenn Leute immer alles so hinnehmen wie es ist und dann auch noch Leute die es nicht tun als "Meckerer" hinstellen. Meckerer verändern die Welt und nicht irgendwelche passiven Schafe die alles über sich ergehen lassen.
 
ja,aber als einzelner wirste da nie etwas ändern,oder erklär mal den leuten wieso sie jetzt plötzlich doppelt so viel für ein produkt zahlen sollen, das wird nicht klappen. vor allem in zeiten wo raubkopierer den pc als Spieleplattform zerstören wird es immer schwieriger werden mit einer teuren aber guten graka einen Absatzmarkt zu finden. den sowas kann man nicht raubkopieren...


gruß
 
Die viel interessantere Frage die sich mir stellt ist, hat denn bisher schon jemand "bestätigen" können, dass bei ihm (in welcher Anwendung auch immer) Mikroruckler in dem Maße auftreten, wie sie hier simuliert werden können?

Das ist eine durchaus ernst gemeinte und zugleich interessante Frage. Eigentlich müsste doch zumindest der Ersteller des Threads bzw. Testprogrammes Mikroruckler schon mit eigenen Augen gesehen haben, wie sonst könnte er ein Programm schreiben, dass dem Betrachter zeigen soll, wie Mikroruckler aussehen.

Da ich nun schon seit einer gewissen Zeit SLI-Systeme nutze und dies auch mit verschiedenen Grafikkartengenerationen, wundert es mich doch sehr, dass ich noch kein solches Phänomen beobachten konnte (übrigens weder auf meinem "tollen 22" 2ms TN-Panel, noch auf meinem 22" Belinea 108080 Röhrenmonster). Auch bei ziemlichen Performancekillern wie Crysis kann ich das Phänomen nicht wahrnehmen.

Ich lasse mir gerne eine Hochgeschwindigkeitskamera schenken bzw. leihen, um das Problem so vielleicht mal auf Videomaterial festhalten zu können (sollte es tatsächlich auftreten). Auch das bringt jedoch reichlich wenig, wenn es tatsächlich ausserhalb des wahrnehmbaren Bereiches des Betrachters liegt.

Bei den Vergleichen, die hier angestellt werden, kann ich genauso gut sagen, dass ein roter Farbklecks auf dem Boden genauso aussieht, wie ein blutender Daumen - so empfinde ich es auch mit dem Mikroruckler-Programm.

Cya, Mäxl
 
der größte unterschied zwischen diesem simulator ist, das MR in der Realität nicht so konstant auftreten wie in dem programm. Dort stellt man ein, dass man stentig eine verzögerung von z.B. 30ms hat. in der realität variiert das stärker und relativiert sich,wie ich schon sagte bei einer bestimmten framerate. bei 60fps bin ich immer noch der meinung,dass keine mr warhnehmbar sind,selbst wenn immer 2fps gleichzeitig rauskommen, hätte man noch 30fps.


gruß
 
Die Sache mit den "FPS" und "ab wann empfindet man es als flüssig" ist auch so ein Thema für die Beißzange ^^

Natürlich empfindet man es unterschiedlich, wann man sagt "Flüssig" und wann man ein Bewegtbild als stockend ansieht.

Das PAL-TV, welches wir mit 23,9xx Bildern pro Sekunde empfangen, empfinden wir auch nur als flüssig, da es interlaced ist und in Wirklichkeit doppelt, also mit knappen 50 (unterschiedlichen) Bildern pro Sekunde wiedergegeben wird. Ähnlich verhält sich das am Computer natürlich auch. Ein Egoshooter, bzw. generell ein Spiel mit schnell wechselndem Bildinhalt, wirkt erst ab ca. 50-60 Bilder pro Sekunde so flüssig, dass man darüber keinen Unterschied mehr wahrnimmt - schon garnicht, wenn der Bildschirm nicht mindestens mit genauso viel Hertz angesteuert wird, wie die Anzahl der fps.

In vielen Egoshootern mit Konsoleneingaben kann man die FPS auf einen festen Wert limitieren. In Quake III Arena ist das z.B. der Befehl "com_maxfps x", wobei x natürlich für den Wert steht. Ein Wert von 25 oder 30 wirkt hier keinesfalls flüssig, erst ab 50-60 Bildern wird das Bild so weich und stufenlos wiedergegeben, dass man sagen kann, darüber hinaus keinen Unterschied mehr festzustellen.

Eigentlich ist das ein weiteres K.O.-Kriterium für Mikroruckler, denn 30FPS können in vielen Spielen eigentlich nicht ausreichen, um ordentlichen Spielspaß zu erhalten, da würde ich persönlich lieber auf das ein oder andere Detail verzichten, bevor ich (mit oder ohne Mikroruckler) ein unsauber wiedergegebenes Bild erhalte.

Cya, Mäxl
 
Schinzie schrieb:
bei 60fps bin ich immer noch der meinung,dass keine mr warhnehmbar sind,selbst wenn immer 2fps gleichzeitig rauskommen, hätte man noch 30fps.

und was hat man davon doppelt soviel auszugeben um im bestfall von 30 auf 60 fps zu kommen, wenn diese durch mr wieder wie 30fps aussehen ?


ja,aber als einzelner wirste da nie etwas ändern,oder erklär mal den leuten wieso sie jetzt plötzlich doppelt so viel für ein produkt zahlen sollen

klappt wunderbar.

Was meinst du warum es z.b. VA/IPS Monitore gibt obwohl sie(teilweise) das doppelte kosten ?

Eben weil es Leute gibt die es kaufen.


man hat bei vielen Dingen die Wahl. Wenn ich mich aber von der Werbung oder anderen Dingen täuschen lasse und mein Geld nutzlos rauswerfe (z.b. für sli/cf auf einem 22er Gammelmonitor), dann kann ich mir u.U eben nicht die Qualität leisten die andere sich gönnen können.

Da werden teils unsummen jede Woche versoffen und verquarzt, aber bei der Technik kuckt man wegen 1-2€ nach dem günstigsten Anbieter bei Geizhals :rolleyes:


Aber das führt hier zu nichts und hat auch mit dem Thema nichts mehr zu tun.


Die viel interessantere Frage die sich mir stellt ist, hat denn bisher schon jemand "bestätigen" können, dass bei ihm (in welcher Anwendung auch immer) Mikroruckler in dem Maße auftreten, wie sie hier simuliert werden können?

und wieder muss ich dir vorwerfen den Thread nicht gelesen zu haben, dann wäre diese Frage nämlich überflüssig.
 
Realsmasher schrieb:
und was hat man davon doppelt soviel auszugeben um im bestfall von 30 auf 60 fps zu kommen, wenn diese durch mr wieder wie 30fps aussehen ?

tja, im extremfall. dass du ständig 100% microruckler hast ist wohl so wahrscheinlcih wie vom blitz getroffen zu werden. normalerweise treten sie viel seltener und vor allem schwächer auf. bei obigem beispielt müsste man 50% abziehn. in der realität wird sich das irgendwo zwischen 5-10% einpendeln.



gruß
 
Selbst wenns nur 10% wären, musst du konsequent sein und das in Vergleichen berücksichtigen und gleichzeitig Dinge wie Inputlag erwähnen.

Zb so:

1 GPU: 30 FPS
2 GPUs: 1,8x 30 FPS = 54 Fake FPS (Bilderbuchskalierung)
0,9x 54 Fake FPS = 48,6 FPS inklusive Lag

Du darfst auch ruhig kleinere Skalierungsfaktoren nutzen, von 0,9 bis 1,9 steht dir alles offen.
 
ich hab ja auch nie behauptet, dass man Dual GPU und Single GPU fps 1:1 vergleichen darf. aber wenn man mit 10% rechnet ist man auf der sicheren seite. und im schnitt kommen dann immer noch 40-50% mehrleistung raus.


gruß
 
Muscular Beaver schrieb:
Ist wirklich interessant wie sich der Markt entwickelt hat. Scheinbar wird wirklich nicht mehr auf Qualität geachtet.
Mikroruckler, Inputlag, Schlieren, Ghosting, Mauslag, Bewegungsunschärfe, miese Schwarzwerte, Schatten- und Texturflimmern, laute Lüfter, mit unnützen und resourcenfressenden Features überladene Betriebssysteme und und und. Und dafür wird überall noch Geld verlangt.
Scheinbar haben sich die meisten aber schon an diesen ganzen Mist gewöhnt und nehmen ihn als normal hin. Einige verteidigen es sogar noch.
Wirklich traurig.

Welch wahres Wort! Wer kauft sich Grafikkarten die 400€! und mehr kosten und dann diesen offensichtlichen Qualitätsmangel aufweisen? Wer kauft sich sich für so viel Geld freiwillig ein fehlerhaftes Produkt? Wie man an den Verkaufszahlen der HD 4870X2 sieht verdammt viele...

Multi-GPU-Grafikkarten wie die 9800GX2 und 4870X2 sind die schlechtesten Grafikkarten die ich kenne.

Des weiteren weigere ich mich auch meinen 22" CRT mit einem TFT zu tauschen. Solange die Winkelabhängigkeit so dermaßen schlecht ist und dabei die Farben verfälscht bzw. eine hohe native Auflösung mich zwingt immer eine fette Grafikkarte im PC zu haben, kann mich der TFT Hype mal. Es gibt mittlerweile brauchbare TFTs für mich, aber die sind extrem teuer...

Schinzies Erläuterung mit dem unstillbaren Leistungshunger ist vollkommen korrekt. Der Leistungsbedarf überwiegt immer noch alle anderen Faktoren wie. zb. funktionierende Stromsparfeatures etc.

@ Realsmasher
Bei einem Auto mit Totalschaden stört dich ein weiterer Kratzer auch nicht mehr, übertrieben ausgedrückt.
Einfach göttlich, die beste Beschreibung einer multi GPU Karte ever ;)


Selbst wenns nur 10% wären, musst du konsequent sein und das in Vergleichen berücksichtigen und gleichzeitig Dinge wie Inputlag erwähnen.

Regt mich jedes mal auf wenn sie keine 10-30% von den FPS bei den "tollen Balken" abziehen. Meinetwegen können wir gleich bei der neuen GX2 anfangen -30% FPS!

MfG Kasmo
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Des weiteren weigere ich mich auch meinen 22" CRT mit einem TFT zu tauschen. Solange die Winkelabhängigkeit so dermaßen schlecht ist und dabei die Farben verfälscht bzw....


wo hockst du denn wenn du am pc sitzt?^^


gruß
 
Hier ist kein TFT Thread !

Wenn irgentein TN-Geblendeter meint diese "Technik" auch noch verteidigen zu müssen, dann bitte per PM.
 
meine meinung dazu.. bei unter 30fps empfinden es eh die meisten als rucklig, von demher^^


gruß
 
du sagst es... das ist alles sehr subjektiv =)
 
Zurück
Oben