Kunibert_KA schrieb:
Ich habe nicht gesagt das geringe fps auf jeden Fall genug sind. Ich habe (und tue das auch weiterhin) bezweifelt das ein Mensch bei 60fps und mehr Ruckler sehen kann.
Es handlet sich halt bei Multi GPU Lösungen nicht um echte 60 FPS, eben aufgrund der Mikroruckler, und das kann man merken.
Der Mensch kann im Allgemeinen auch Unterschiede im ms Bereich merken, siehe Gewitter (Blitze). (Sollte ich hier ein falsches Verständnis haben, bitte eine Quelle geben, ich konnte da nicht viel auf die Schnelle finden)
Kunibert_KA schrieb:
Ruckeln entsteht wenn die Positionsänderung eines Objektes sehr groß ist oder der zeitliche Abstand zwischen dem ein Gegenstand an unterschiedlichen Positionen dargestellt wird so lang ist das wir keine kontinuierliche Bewegung mehr wahrnehmen.
Unabhängig vom Anzeigeverfahren bleiben es beim Fernsehen also 25 Bilder pro Sekunde die unterschiedliche Positionen darstellen können. Das Halbbildverfahren dient dazu das Flimmern zu begrenzen. Ist das selbe wie beim TFT oder der Röhre. Auch wenn ich 10fps habe werden eben 60 Bilder pro Sekunde oder mehr bei einer Röhre dargestellt. Dann eben wie beim Fernsehen ein und das selbe mehrmals bis ein neues fertig ist.
Was die Art des angesehenen angeht: Ich kann mir keine Mechanik vorstellen die dazu führt das sich die physikalisch-chemischen Vorgänge im Auge und Hirn durch die Art des betrachteten Gegenstands verändern.
Wenn ich mich recht entsinne, gab es bei der ganzen 24P Geschichte noch einen Unterschied, was die Bildausgabe anging, sodass eben wirklich Ruckler in langsamen(muss mich also korrigieren, habe irgendwie ne kleine geistige Blockade vorhin gehabt) Szenen entstehen können, dies hat allerdings zugegeben, nichts direkt mit dem Empfinden im Kino, sondern mit der - mehr oder weniger - aktuellen Fernsehersituation zu tun gehabt, auch da habe ich mal wieder was durcheinandergebracht
Ich konnte mich nur noch teilweise an
diese Quelle erinnern und habe daher vergessen, dass das Problem nicht im Kino(in welchem ich die letzten Jahre nicht wahr), sondern erst daheim an einem nicht vollständig kompatiblen Fernseher auftritt.
Nunja, jeder macht mal Fehler, aber ich ganz besonders oft
Was das ganze restliche (auch mit PAL) am Fernseher angeht, ist mir gerade noch was aufgefallen ...
1. Es gibt in fast jeder Szene ständige Kamerawechsel, kaum noch wird die Kamera geschwenkt (zumindest bei fast allen Amerika-Produktionen), wodurch die "geringe" Vollbildzahl nicht wirklich auffällt ...
2.Wenn man das aber mal mit einer Eigenaufnahme in 60 fps vergleicht, sieht man einen Unterschied, aber nichts was einen wirklich stört.
Kunibert_KA schrieb:
Ich denke du zielst hier eher auf Verzögerungen der Reaktion des Spiels auf deine Aktionen ab. Diese haben aber nur zum Teil etwas mit der Anzeige zu tun. Dort geht es eher um die Latenz der Verarbeitung der Eingabe.
Stimmt, darauf wollte ich eher hinaus, (ich bin allerdings schlicht und ergreifend nicht besonders fähig, was ausführliche Diskussionen und Erläuterungen angeht, daher verwechsel/vermische ich häufiger etwas), Reaktionsverzögerungen und Inputlags sind beim Zuschauen absolut nicht von Interesse, beim Spielen aber schon, und da haben Multi GPU Setups ein Problem (das Prerender-Limit, welches sich mit jeder GPU erhöht, soweit ich weiß; deswegen gibt es unter XP, da kein höheres Prerenderlimit als 3 vorgegeben ist, wenn ich mich recht entsinne auch kein Crossfire X, [oder sind meine Informationen veraltet ?]), welches eben bei Spielen, bei denen man wirklich extrem schnell reagieren muss (Multiplayer Shooter), fatal sein kann (je höher es ist), egal wie schnell das Spiel was die FPS angeht läuft.
Kunibert_KA schrieb:
Framedrops sind aber etwas anderes als Microruckler.
Microruckler meint das alternierende Wechseln zwischen zwei Abständen zwischen aufeinander folgenden Frames. Diese entstehen wenn der Treiber an beide GPUs (nahezu) gleichzeitig Frameberechnungen anstößt und diese dann eben auch (nahezu) gleichzeitig fertigwerden. Danach ist dann wieder eine längere Pause bis das nächste Doppelpack fertig ist. Der VRAM hat darauf keinen Einfluss. Der VRAM ist für 'längere' Framedrops mitverantwortlich wenn eben diese Voll ist bzw die benötigten Daten nicht enthält.
Das ist mir klar, aber es geht mir auch um das Zusammenspiel beider Faktoren, also VRAM + Mikroruckler, wodurch dann Framedrops besonders übel auffallen. (eben dadurch, dass der volle VRAM z.B. für einen Framedrop auf sagen wir 35 fps verantwortlich ist und nun auch das Mikroruckeln wahrgenommen werden kann).
Beide Sachen alleine fallen nicht gerade stark ins Gewicht, bei 60 fps sind Mikroruckler eben für manche noch geradeso bemerkbar, für die meisten wohl nicht mehr; genau dasselbe kann man über framedrops sagen ... wenn die fps bei einer Single GPU auf ca. 35 fallen, merkt man zwar im Unterschied zu 60 eine Verlangsamung, das ist aber meist zu vernachlässigen, solange es eben nicht mit Mikrorucklern zusammenkommt ...
Dann wird es, zumindest meiner Meinung nach, zu einem ernsteren Problem.
Kunibert_KA schrieb:
Ich möchte noch anfügen das dieses hier jetzt nicht zu hart werden soll. Ich finde es nur schlecht wenn Dinge behauptet werden die unmöglich oder sehr theoretisch sind. Wir sollten uns hier doch eher an der Realität und Fakten orientieren.
Gut, es mag sehr theoretisch sein (und leider auch zum Teil etwas falsch), aber solange wir nicht alle die Karte selbst getestet und gesehen haben, können wir auf keine andere Ebene gehen, als eben die theoretische oder die vergleichende (beispielsweise halt Vergleiche zu älteren X2/GX2, diese haben aber nunmal im Vergleich ganz andere Probleme, wie zu wenig VRAM oder eine schlechtere Architektur für höhere AA settings).