Test Nvidia GeForce 337.50 im Test

wie ich es mir dachte, minimale verbesserung. mal sehen was in zukunft noch geht. für
den moment bin ich weder enttäuscht noch überrascht.
 
Mein System siehe Sig,

Bei BO2 hatte ich am Anfang jeder Runde kleine Lags --> jetzt gar nichts mehr, nicht mal ein Zucken.
Nach der Lobby ohne jegliche Verzögerung ins Spiel, sehe nicht mal diese MAP Vorschau, natürlich ist die SSD der Hauptgrund, aber ab und zu sah ich für einen kleinen Augenblick diese MAP Vorschau, jetzt gar nichts mehr!
Vorher zuckten die FPS von 125 ab und zu auf bis zu 110 runter, jetzt egal welche Map, immer 125 ohne nur einmal auf 124 zu gehen.

Ich bin zufrieden!

@RIPchen Ich bin da völlig deiner Meinung!
 
Zuletzt bearbeitet:
wo hast du den diesen Schwachsinn her?

du weißt wahrscheinlich nicht wozu ich die 120fps genau brauche und lässt hier so ein Müll ab....
 
Pilstrinker schrieb:
Und genau dieses Spiel wird sich fortsetzen, bis irgendwann mal DX12 erscheint.
Nicht wenn für die Entwickler jetzt schon abzusehen ist, dass in ein paar Jahren kein Nutzen mehr für Mantle besteht. Da wird man jetzt keine große Investitionen in die Einarbeitung einer neuen API vornehmen, wenn dies nur für ein oder zwei Spiele bei weniger als der Hälfte der PC Spieler einen Leistungsvorteil bietet.

Der PC spielt ohnehin eine immer untergeordnetere Rolle. Wichtiger sind die Konsolen und da DirectX 12 demnächst auch auf der Xbox One erscheint bzw. OpenGL auf der PS4 stehen die Chancen dort deutlich besser, dass diese APIs auch von den Entwicklern verwendet werden.

Aus diesem Grund halte ich es für sehr unwahrscheinlich, dass Mantle hier wirklich eine Chance hat. Würden OpenGL und DirectX in den zukünftigen Versionen den Low Level Access nicht bieten wäre das etwas anderes gewesen, aber so bietet Mantle keine großen Vorteile mehr außer, dass es 1 Jahr eher verfügbar ist. Das reicht aber nicht aus um sich durchzusetzen. Dafür hat es viel zu viel andere Nachteile:

- Nicht hardwareübergreifend
- Nicht plattformübergreifend
- Kein Tooling
- Schlechte Dokumentation
- Keine Erfahrung bei den Entwicklern
- Nicht ausgereift (Erste Versionen von neuen Schnittstellen, Frameworks oder ähnlichem sind grundsätzlich nie das wahre vom Ei)



mastertier79 schrieb:
Deine Augen können nur 30 frames verarbeiten. 60 frames am Bildschirm wären optimal damits im Hirn "nicht ruckelt". also daher sind 110 oder 125 frames völlig irrelevant ;)
Blödsinn. Dein "Hirn" ist kein Computer. Der arbeitet nicht in Bildwiederholraten. Du kannst 0,5 ms lange Blitze erkennen wenn du in kompletter Dunkelheit bist. Trotzdem kannst du das nicht umrechnen in 200Hz.

120 fps+ machen aber trotzdem Sinn. Zwar wird dir weder bei 60 noch bei 120 fps ein ruckeln auffallen, aber du wirst deutlich spüren, dass das Spiel bei 120 fps reaktionsfreudiger reagiert.

Einer der Nachteile von DirectX ist im Moment zum Beispiel nicht, dass bis zu drei Bilder im Zwischenpuffer stecken, bevor sie letztendlich an die Grafikkarte weitergegeben werden.
Das heißt also, dass du bei 60 fps bis zu 50 ms Verzögerung alleine schon durch die API in Kauf nehmen musst. Dazu kommt noch Monitor Input Lag und eventuell noch V-Sync und all diese Geschichten. Alles hängt von der Bildwiederholrate ab. Letztendlich liegen zwischen deiner Mausbewegung und dem was auf dem Monitor passiert ein deutlich spürbarer Lag.
Steigerst du deine Bildwiederholrate aber auf 120 fps, dann halbiert sich die ganze Geschichte gleich und die Steuerung ist sofort viel direkter.

Es geht also nicht um flüssigere Bilder, sondern um eine direktere Steuerung, als auch genauere Physiksimulationen, da diese für gewöhnlich mit doppelt so hoher Framerate wie die Grafikengine ablaufen. Je höher die ist umso genauer also auch die Physikberechnungen.

Microruckler werden übrigens auch stark reduziert und Tearingeffekte sind auch ohne V-Sync kaum noch zu erkennen. Es hat wirklich eine Menge Vorteile.
 
Zuletzt bearbeitet:
Die Einzeltests zeigen: Je mehr ein Spiel CPU-limitiert ist, desto größer die Vorteile vom GeForce 337.50 werden. Crysis 3 ist zum Beispiel ausschließlich GPU-limitiert, sodass der neue Treiber unter Windows 7 gar minimal langsamer als der GeForce 335.23 arbeitet.
Das ergibt keinen Sinn.
 
wo hast du den diesen Schwachsinn her?

Zitat:

Hier ist eine Unterscheidung zwischen Bildrate und Bildwiederholfrequenz wichtig, da diese nicht identisch sein müssen. Die Bildrate sollte einen Wert von ca. 30 Bildern/Sekunden nicht unterschreiten, um dem menschlichen Auge bei bewegten Bildinhalten einen flüssigen Bildeindruck vermitteln zu können. Dabei ist die Grenze zur Wahrnehmung einer fließenden Bewegung von Mensch zu Mensch leicht verschieden. Die heute im Kino übliche Bildrate von 24 Hz begrenzt die Bewegtbilddarstellung, was dazu führt, dass sich Objekte, die sich mit ungünstiger, mittlerer Geschwindigkeit auf dem Bild bewegen, als „ruckelnd“ wahrgenommen werden. Eine gute Regie weiß das zu vermeiden, indem beispielsweise Kameraschwenks nur sehr langsam oder ausreichend schnell erfolgen. Die Aufzeichnung mit Studiokameras oder Camcordern verwendet das Zeilensprungverfahren, was durch die höhere Bildrate mit 50 bzw. 60 Bewegungsphasen pro Sekunde deutliche Vorteile z. B. bei Sportaufnahmen bietet.

von:

https://de.wikipedia.org/wiki/Bildwiederholfrequenz
 
das ist jetzt doch nicht dein Ernst oder?

lass es einfach, du blamierst dich nur noch mehr, hier gehts nicht um dieses Thema und es wurde schon zu genüge darüber diskutiert.

wenn du mehr wissen willst dann schau hier nach http://www.blurbusters.com/zero-motion-blur/lightboost/

und nu ist gut....
 
mastertier79 schrieb:
Deine Augen können nur 30 frames verarbeiten. 60 frames am Bildschirm wären optimal damits im Hirn "nicht ruckelt". also daher sind 110 oder 125 frames völlig irrelevant ;)

So ein Quatsch. Wenn die Augen den Unterschied nicht mehr aufnehmen könnten, wäre das Gehirn mangels differenzierter Signale erst Recht nicht mehr in der Lage, die entsprechenden Frameraten zu differenzieren. Desweiteren solltest du dich mal mit dem Thema Frametimes und daraus resultierenden Lag sowie mit dem Sample Hold Verfahren von LCD Monitoren beschäftigen. Wäre ich am Rechner könnte ich dir einen Link senden bei dem man 30 und 60 fps vergleichen kann, der Unterschied ist frappierend
 
Hier der link.

http://frames-per-second.appspot.com/

am besten noch den blur effekt ausschalten, dann siehst du das 60fps deutlich besser als 30 sind. weniger ruckeln und mehr bewegungsschärfe.
auch 120hz wären nochmal schärfer, weil die bilder kürzere Standzeiten haben denn das problem beim lcd monitor ist, das die
Bilder anders als im Kino einer Bildröhre oder beim Plasma Tv nicht durch Schwarzphasen unterbrochen werden, so das das Auge bei bewegungen über den BIldschirm wandert und die Bewegung verfolgt. Dadurch ensteht ein Blureffekt auf der Netzhaut.
Auf einer Bildröhre oder beim Plasma reichen hingegen schon 60fps locker für eine sehr hohe Bewegtbildauflösung.
Ein Plasma schafft 1080 Linien Bewegtbildauflösung ein 60hz LCD gerade mal 300 von den 1080 Linien. selbst 100hz lcd schaffen keine 1080Linien. Dazu bedarf es schon 200hz und eine Dark Frame Insertion, das ist auch der Grund warum lcd TV heutzutage mit so hohen Hz zahlen auf den Markt geworfen werden.
 
Ich habe mit diesem Treiber massive Darstellungsprobleme (flackernde Bildelemente) bei War of the Roses, daher habe ich ihn wieder deinstalliert.
 
noxon schrieb:
Sinnvoller ist es da eher auf eine der High-Level APIs zu setzen, die in Zukunft auch Low-Level Access bieten werden.

seh ich jetzt quasi zusammenfassend genauso. DX fehlen einfach noch diese Möglichkeiten und es macht Sinn auch da anzupacken. In meinen Augen mehr Sinn als eine Herstellerspezifische Neuentwicklung.

Auch halte ich es für Schwachsinn dass NV hier absichtlich irgendwelche Reserven in der Hinterhand behält, das ergibt zu wenig Sinn. Sicher könnte man jedes Spiel mit entsprechend Aufwand nochmal um 30% pushen... aber der Aufwand kostet zu viel.

Es gilt schlicht das Pareto-Prinzip - 20% Aufwand für 80% "Ergebnis" - wie es jeder von uns wohl auch in der Schule / Studium Angewandt hat ;)

Dass Nvidia jetzt gerade bei den Mantle Demo Projekten aus den 20% vielleicht 50% gemacht hat und nun 90% rausholt ist offensichtlich... Headroom nach oben gibt es quasi in jedem Game (oft machts aber kein Sinn da quasi jeder jetzt schon Full HD spielbare Frameraten hat). Wieso soll ich in Thief schauen dass ich statt 80 nun 120FPS habe? Kostet nur Geld. Nur weil es eine handvoll Hansel gibt die auf 4h mit höchster AA Stufe zocken oder Downsamplen?

Dass Mantle in der Theorie sicher noch mehr Potential hat steht außer Frage, wenn man speziell auf eine Hardware optimieren kann ist das quasi immer der Fall. Ob der Kunde davon mehr hat als bei einer recht ausgeglichenen Lösung wie DX sei dahingestellt. DX ist halt Win Only, das kann man ankreiden... Eventuell hat Mantle ne Chance wenn es wirklich OpenSource wird.
 
Zuletzt bearbeitet:
Ich finde den Treiber alleine deshalb toll, weil er meine 825M unter Win7x64 im Notebook unterstützt :D
 
Wieso soll ich in Thief schauen dass ich statt 80 nun 120FPS habe? Kostet nur Geld. Nur weil es eine handvoll Hansel gibt die auf 4h mit höchster AA Stufe zocken oder Downsamplen?

Aus Marketinggründen. Produkte mit längeren Balken verkaufen sich halt besser.

Und das kann ruhig auch mal was kosten, so, wie jede Werbekampagne Geld kostet.
 
Techniker Freak schrieb:
Bis dahin wird die Anzahl der Mantle Spiele steigen. Mit dem Erscheinen von DirectX12 werden 1 bis 3 Titel zum Start erscheinen und dann werden es langsam immer mehr. Vor Mitte 2016 wird es keine nennenswerte Anzahl an DX12 Spielen geben.

Wobei eine gewisse Chance besteht, dass auch DX11-Spiele (und älter) profitieren könnten, wenn sie unter DX12 laufen. Sicher wird es da geringere Leistungsgewinne geben, als bei nativen DX12-Spielen, aber trotzdem könnten einige der Optimierungen der neuen API auch bei älteren Spielen Wirkung zeigen.

Bei Mantle geht das hingegen nicht, denn unter Mantle laufen überhaupt nur Mantle-Spiele, aber keine gewöhnlichen DX-Spiele.

Zu den Ergebnissen von Nvidias "Wundertreiber":
Es scheint da eine ziemliche Bandbreite an Ergebnissen zu geben.
Bei den diversen Review-Websites zeigen sich, von einzelnen neueren Spielen/Demos abgesehen, auf die der Treiber wahrscheinlich speziell optimiert wurde, nur sehr kleine oder auch gar keine Leistungssteigerungen. Im Prinzip das übliche Bild eines Treiberupdates. Vielleicht leicht überdurchschnittlich, aber sicher kein Wundertreiber.

Sowas in der Richtung hatte ich ursprünglich auch erwartet.

Allerdings scheinen viele Spieler doch durchaus deutliche Leistungssteigerungen zu sehen. Auch da, wo die Reviewer kaum etwas feststellen. Es scheint also sehr stark von der verwendeten Konfiguration (GPU, CPU, vielleicht auch Windows-Version und andere Faktoren) abzuhängen, ob sich Verbesserungen zeigen oder nicht.
Das könnte dann auch Nvidias sehr hoch erscheinende "bis zu"-Zahlen erklären. Die sind wohl nicht einfach aus der Nase gezogen, sondern besonders positive Extremfälle.

Das macht es schwer, ein allgemeines Fazit zu ziehen. Unterm Strich würde ich aber sagen, dass der Treiber nur zu 20% technische Verbesserung ist und zu 80% eine Marketingaktion als Antwort auf AMDs Mantle. Er soll die Botschaft vermitteln: "Man braucht gar kein Mantle. Nvidia bekommt das auch unter DX hin." Aber letztlich zeigt sich doch in den meisten Fällen, dass ein optimierter Treiber nicht mit einer neue API zu vergleichen ist.
Ausgenommen natürlich für die Glücklichen, die mit ihrer Hardware zufällig genau in den für sie wichtigen Spielen deutliche Verbesserungen haben. Für die ist es tatsächlich ein kleines Wunder. :)
 
das mag stimmen, aber es kommt wohl eher auf die Balken in "wichtigen" Games an. Thief is sicher nicht ganz unwichtig da verbreitet, aber gerade no-Name Games werden sicher keine hohe Prio bei der Optimierung bekommen.

BF4 zB... genau das Gegenteil da AMD hier auch Mantle präsentierte. Das galt es quasi auszustechen und da hat NV sicher viel Arbeit investiert, mehr als bei anderen Games zusammen. Man kann nicht jedes Game bis ins Unendliche optimieren, das rechnet sich nicht und auch Nvidia muss die Kosten in der Treiberentwicklung effizient ansetzen.

Bei AMD läuft das nicht anders. Neben Mantle kann man sicher auch bei DX noch massiv was rausholen... aber AMD muss sich entscheiden. Mantle oder DX - von den Kosten kein einfaches Unterfangen beides parallel zu pflegen. Da werden auf DX sicher n paar Abstriche gemacht werden müssen.
 
nice. auch bei mir 25fps mehr in bf4.
hänge im cpu limit da ich ne mischung aus low-ultra spiele (max. fps benötigt).
 
mastertier79 schrieb:
Deine Augen können nur 30 frames verarbeiten. 60 frames am Bildschirm wären optimal damits im Hirn "nicht ruckelt". also daher sind 110 oder 125 frames völlig irrelevant ;)

Das ist echt einer der albernsten Posts die ich je in einem Forum gelesen hab. Wieso verbreitet man solch falsches Halbwissen? Wenn man von etwas keine oder wenig Ahnung hat sollte man sich doch lieber zurückhalten oder sich richtig informieren bevor man anderen in Foren solch einen Stuss erzählt!
 
mastertier79 schrieb:
Deine Augen können nur 30 frames verarbeiten. 60 frames am Bildschirm wären optimal damits im Hirn "nicht ruckelt". also daher sind 110 oder 125 frames völlig irrelevant ;)
oh Gott nicht wieder der Müll
 
Zurück
Oben