Test Nvidia GeForce 337.50 im Test

Dirt 2 unter dem neuen auch getestet.

Hammer.

vorher ging alles nur auf hoch mit meinem Lappi
Jetzt alles volle Pulle und nicht mehr unter 55 min
Zu vorher 15 minFPS mehr. Und das obwohl ich jetzt auch noch alles auf volle Pulle habe

Das ganze unter Win 7
 
Also Nvidia hat ja geliefert aber nicht das was versprochen wurde. Beworben wurde damit dass Nvidia es per Treiber schafft in allen DX11 Games den CPU Overhead zu reduzieren, was aber offensichtlich nicht der Fall ist. Hier sind einige Beispiele von eindeutig CPU limiterenden Spielen:

1.PNG

2.PNG

3.PNG

Wie man schön sieht bekommt in den getesteten CPU limitierenden Spielen lediglich Battlefield unter Win 7 einen ordentlichen Schub. In Rome 2 hingegen, das mit bis zu 64% mehr FPS beworben wurde, sehen wir unter realen Bedingungen nichts. Für mich steht damit fest dass Nvidia hier bei lediglich wenigen ausgewählten Spielen (Mantle Spielen) Hand angelegt hat den CPU Overhead zu reduzieren, der Rest sind Verbesserungen im GPU Bereich die in in jedem Performance Treiber von beiden Seiten zu finden sind.

Ich will das nicht schlechtreden, denn so bekommen auch Nvidia Nutzer mehr Leistung in Mantle Spielen, aber mit Wunder hat das nichts zu tun. Nvidia muss hier einen ordentlichen Aufwand betreiben um in diesen Spielen auf Mantle aufzuschließen. Sie werden das auf jeden Fall in kommenden Mantle Spielen durchhalten müssen bis DX12 kommt. Ich schätze in kommenden Monaten werden wir noch eine Vielzahl an angepassten Betatreibern von Nvidia sehen.

Fazit: Beide Seiten profitieren von besserer Software und damit meine ich nicht AMD und Nvidia sondern die Spieler. Grund zu Streiten gibt es hier absolut nicht. Wir befinden uns in einer Win Win Situation, nur schade dass es auf dem CPU Markt nicht ähnlich ist.
 
Zuletzt bearbeitet:
Herdware schrieb:
Wenn Nvidia behauptet, bei dem "Wundertreiber" dem Umgang des Treibers mit DirectX optimiert zu haben und so z.B. die CPU-Last reduziert, dann impliziert das für mich, dass davon jedes unter DX11 laufende Spiele (was möglicherweise auch unter DX11 laufende DX9-Spiele mit einschließt?) davon mehr oder weniger profitiert. Also ohne dass der Treiber für jedes einzelne Spiel extra optimiert werden muss.

Das scheint aber nicht der Fall zu sein. Zumindest nicht nach den Benchmarkergebnissen der diversen Review-Websites. Dort zeigen sich nennenswerte Verbesserungen nur bei ausgewählten Spielen. Die "Star Swarm"-Demo z.B. scheint mit dem neuen Treiber durchgehend gut zuzulegen. Das riecht für mich aber wie gesagt eher nach spezieller Treiberoptimierung für einzelne Spiele/Demos und nicht nach genereller Optimierung für alle DirectX-Spiele.

Es profitieren wohl auch ältere Spiele, Borderlands 2 usw. haben Leute schon Verbesserungen gesehen. Aber generell siehts wohl größtenteils nicht danach aus, dass man die CPU-Last reduziert hat, sondern einfach die Verteilung auf mehr Kerne verbessert hat. Deshalb sind die Ergebnisse auch dermassen gemischt. Wenn die CPU voll ausgelastet ist, wie beim PCGH-Test bringen die Optimierungen nix mehr. Bei GPU-Limit bringts auch nix, nur bei CPU-Limit aufgrund zu gewisser Multikernoptimierung bringt es wirklich was. Wenn 1 Spiel nur 1 Kern benutzt und der DX-Thread aufn 2 läuft bringt es auch nix, weil der 2 Kern den Overhead locker schafft.

Also ich meine, Spiel XY benutzt an Kernen z.B:
Kern1 : 80%
Kern2 :70%
Kern3 : 60%
Kern4 : 60%

Dazu käme dann der DX-Overhead, welcher nen Core 50% auslasten würde drauf und deshalb ein CPU-Limit erzeugt, weil er größtenteils auf 1 Core vorher lief. Mit dem neuen Treiber verteilt Nvidia nun den DX-Overhead besser auf auf die verschiedenen Kerne und kann deshalb in speziellen Fällen gut profitieren.
Ist nur ne Theorie, aber wäre für mich nen Versuch die teils sehr wiedersprüchlichen Ergebnisse verschiedener Nutzer zu erklären.

Irgendwie fühle ich mich fast nur bei deinen Beiträgen hier genötigt was zu schreiben, gut mal welche zu sehen die nicht gleich im Lagerkampf enden in diesem Thread.
 
Zuletzt bearbeitet:
Mit dem Overhead bin ich mir nicht so sicher (NV unterscheidet offenbar zwischen DX 11 Optimierungen und CPU-Overhead Optimierungen, die bei SLI-Systemen greifen sollen), aber tatsächlich versprochen haben sie, das alle DX 11 Spiele profitieren sollen:

Unlike changes tailored around custom graphics APIs, our new optimizations can benefit all DirectX 11 titles the second they go on sale, regardless of developer or publisher, and apply to all DirectX 11-capable NVIDIA GPUs.
 
Dai6oro schrieb:
Grund zu Streiten gibt es hier absolut nicht. Wir befinden uns in einer Win Win Situation, nur schade dass es auf dem CPU Markt nicht ähnlich ist.

1. Keiner Streite ich hätte gerne gesehen das bei alten Spiele wie DirectX 9 und 10 mehr Leistung gebracht hat, Leider ist das nicht der Fall.

2. Ja schade auch, das bei CPU Markt AMD ein wenig hinter her ist als bei Intel.


Aber wie du schon gesagt hast, wie habe hier eine Win Win Situation als auch AMD und Nvidia Karte ....das freut den Kunden :schluck:
 
Zuletzt bearbeitet:
Mit dem Overhead bin ich mir nicht so sicher (NV unterscheidet offenbar zwischen DX 11 Optimierungen und CPU-Overhead Optimierungen, die bei SLI-Systemen greifen sollen), aber tatsächlich versprochen haben sie, das alle DX 11 Spiele profitieren sollen:

Unlike changes tailored around custom graphics APIs, our new optimizations can benefit all DirectX 11 titles the second they go on sale, regardless of developer or publisher, and apply to all DirectX 11-capable NVIDIA GPUs.

Naja versprochen haben firmen schon immer viel...

Fakt ist und die Benchmarks zeigen es eigentlich sehr deutlich - es sind durchweg keine "generellen" CPU Overhead optimierungen sondern praktisch ausschliesslich einzel spiel optimierungen.

Diese wirken dann zwar z.t. auch bei Titeln für die man nicht explizit optimiert hat aber eine generelle Overhead Redution sehe ich da nicht.

Vor allem...WARUM profitieren SCHNELLE CPUs von der Reduktion Mehr als LANGSAME ??? (Beispiel PCGH test mit Q9650 vs i7).
 
DocWindows schrieb:
Jo, auf Seiten die sich nicht zu schade sind Leistungsmessungen auf Benchtables durchzuführen statt in normalen Gehäusen die jeder zu Hause hat.
Da kommen dann - flapsig formuliert - Resultate raus wie "Die Grafikkarte XY ist nicht zu laut (wenn man sich die Ohren zuhält) ^^

Für mich sind die CB-Messungen und Aussagen immer sehr gut hingekommen.

Das kann ich soweit nicht unterstützen, ich komme sowohl auf andere Verbrauchsergebnisse, als auch andere Temperaturen. Ich will jetzt CB nichts unterstellen, aber die Wahl der Spiele, hat schon einen starken Einfluß auf den Verbrauch der Karten.
Und das spiegelt sich auch in den Tests wieder, es gibt ziemlich viele Resultate bei denen die Titan mal gerne mehr verbraucht als eine 7970GHz und auch umgekehrt. Das darf man auch nciht außer Acht lassen, wenn man eine relativ Objektive Sicht erlangen will.

Und ob man einen Benchtable benutz oder nicht :D ein Gehäuse mit zwei Gehäuselüftern ist auch nicht mehr Zeitgemäß, würde da eher in Richtung 4 gehen, schließlich etabliert sich eine höhere Lüfteranzahl schon seit geraumer Zeit. Dass aber ein Nvidia Pro Touch vorhanden lässt sich nicht leugnen. Schließlich wurden keine Szenarien mit langsamer getakteten CPUs getestet, aber es wird trotzdem behauptet dass der CPU overhead reduziert wurde.
 
Zuletzt bearbeitet:
Hätte es diesen Nvidia Wundertreiber ohne AMDs Mantle gegeben ???
 
ne, warum auch?

ohne Konkurrenz steht kein Hersteller auf
 
C:\Users\Benutzer\AppData\Local\Temp\NVIDIA Corporation\NV_Cache

Ich hab jetzt nicht den Elan die ganzen 10 Seiten nochma durch zu lesen obs schon jemand entdeckt hat. Bemägelt wurde glaube ich mal dass man den Shader-Cache nicht platzieren kann wo man will. ok, man kann ihn nicht komplett umsiedeln, aber man kann den Temp-Ordner verlegen.

Bitteschön.
 
Dai6oro schrieb:
Also Nvidia hat ja geliefert aber nicht das was versprochen wurde. Beworben wurde damit dass Nvidia es per Treiber schafft in allen DX11 Games den CPU Overhead zu reduzieren, was aber offensichtlich nicht der Fall ist.

Wo wurde das denn versprochen? Scheint mir eher Einbildung zu sein. Ich habe auf geforce.com das "Whatsnew" zum Treiber gelesen und dort wurde nur erwähnt, dass der CPU Overhead bei multi GPU-Konfiguarationen dramatisch reduziert wurde. Die Grafiken dort beziehen sich auch auf SLI. Bei Single-GPU gibt es lt. Artikel auch verbesserungen, aber weit weniger dramatische.
Sie werden wohl das Management von mehreren GPUs entrümpelt und der CPU einiges an Arbeit abgenommen haben.

aivazi schrieb:
Das kann ich soweit nicht unterstützen, ich komme sowohl auf andere Verbrauchsergebnisse, als auch andere Temperaturen.

Ich auch. Aber ich habe auch nicht das gleiche Gehäuse, und das gleiche Strommessgerät. Ich habe ein GS1000 Towergehäuse und ein Billigmessgerät von Voltcraft.

aivazi schrieb:
Ich will jetzt CB nichts unterstellen, aber die Wahl der Spiele, hat schon einen starken Einfluß auf den Verbrauch der Karten.

Türlich. Und 10 andere Faktoren auch, die man mit keinem Test der Welt für alle Menschen die ihn lesen zufriedenstellend abhandeln kann.

aivazi schrieb:
Und ob man einen Benchtable benutz oder nicht :D ein Gehäuse mit zwei Gehäuselüftern ist auch nicht mehr Zeitgemäß, würde da eher in Richtung 4 gehen, schließlich etabliert sich eine höhere Lüfteranzahl schon seit geraumer Zeit.

Ansichtssache. Da hat jeder seine eigenen Vorlieben. Mein Gehäuse hat nur 2 Lüfter (plus CPU-Kühler). Man könnte zwar mehr einbauen, aber es ist komplett unnötig. Und ich steh nicht auf Lärm. Die meiste Zeit drehen sich die Lüfter daher auch gar nicht. Normalerweise hört man nur das sirren der Festplatten. Nur beim Gaming rauscht es ein wenig, auch wegen der Grafikkarte. Die Festplattengeräusche würde ich am liebsten auch noch eliminieren, aber SSDs sind mir noch zu teuer :D
 
Zuletzt bearbeitet:
emeraldmine schrieb:
C:\Users\Benutzer\AppData\Local\Temp\NVIDIA Corporation\NV_Cache

Danke, der ist bei mir schon 200mb groß ^^
 
DocWindows schrieb:
Wo wurde das denn versprochen? Scheint mir eher Einbildung zu sein. Ich habe auf geforce.com das "Whatsnew" zum Treiber gelesen und dort wurde nur erwähnt, dass der CPU Overhead bei multi GPU-Konfiguarationen dramatisch reduziert wurde.

Hier wurde es versprochen - weit vor der Rubrik "SLI".

Gleich am Anfang der 4. Abschnitt:

Unlike changes tailored around custom graphics APIs, our new optimizations can benefit all DirectX 11 titles the second they go on sale, regardless of developer or publisher, and apply to all DirectX 11-capable NVIDIA GPUs.

Hier ist eindeutig der Single GPU Betrieb gemeint.

Und das Ziel haben sie verfehlt.
 
Bin ich eigentlich der einzige dem es stört das die Geforce wie auch Radeon Treiber mittlerweile bei fast 300MBGröße angekommen sind ?
 
DocWindows schrieb:
aber SSDs sind mir noch zu teuer :D

Wozu denn ? Wenn du sagen mal 16GB RAM dein Eigen nennst kannst getrost eine sich beim Windows-Start ladende RAM-DISK anlegen, und so brauchst gar keine extra SSD ^^ , nur so als Notbehelf , kein Muss dass das jeder machen soll. .-)
 
_vicious_ schrieb:
"dominant performance" "DRAMATIC improvements"

ich habe selten so gelacht. die wortwahl ist extrem daneben.

aha, plus 15-25 FPS , CPU Last -40%, GPU Temp -20% und das bei einem Treiber sind für dich dann was? Peanuts!? Mag sein das das bei Battlefield 3(4) wohl einmalig ist aber den Treiber als Witz hinzustellen ist absolut unterstes Niveau, das gilt übrigens für alle die meinen den Treiber schlecht reden zu müßen, vor allem bei denen eine ATI werkelt und nicht einmal die Möglichkeit haben es selbst zu testen und auf Tests Dritter angewiesen sind.

mfg
 
Zuletzt bearbeitet:
Zurück
Oben