Test Nvidia GeForce 337.50 im Test

Wirkt ja so als ob der Treiber noch schnell für die Mantle-Spiele optimiert wurde, damit man morgen gegen die X295 eine bessere Figur macht. Hoffentlich bringt der ganze Zirkus auch Performance für die zukünftigen Spiele und ist nicht einfach nur Marketingquatsch für Thief und BF.
 
Phenom II X4 965 mit ner GTX 650TI Boost, da würden mich Benches interessieren und nicht für übertrieben hochgezüchtete Superduper-Geräte.

LG
 
Also wenn man sich die Ergebnisse im Web mal so ansieht dann scheint der Treiber die "CPU"-Performance zu "optimieren" indem das Threading optimiert wird.

Das funzt:

1.) Besonders gut auf Intels mit HT
2.) Besonders gut auf Intels mit vielen Threads
3.) Deswegen auch nur weniger gut auf FX-CPUs und auf "alten" oder HT-losen Intels....
4.) Wurden offensichtliche die beiden Mantle spiele MAXIMALST DX optimiert....das denke ich wird dann wohl das limit sein was da geht.


Dennoch:

FAZIT: Performance for free in den fällen wos klappt und eher kein Nachteil wo es nicht funzt...ist immer gut zu haben.

Schön dass der Mantle Arschtritt nun die "großen" mal losgeeist hat was zu machen. Fängt ja mit der hektischen Ankündigung von DX12 (Ende 2015 LOL)....über den nVidia Wundertreiber der den "DX" Overhead reduziert....(LOL) fehlt nur noch das Intel nun auch noch klimmzüge macht um bessere parallelisierbarkeit von Software zu ermöglichen (bestimmt nur auf Intel >i7 LOL)

Danke AMD :-) für kostenlose mehrperformance im 100€ Bereich von 50%.

UND: DANKE @CB für den Win7 / Win8.1 vergleich:
man sieht dass Win7 vs win8.1 nur in genau 1 Fall wirklich was bringt - BF4....von wegen allgemein 10% schneller blabla was man immer so liest.
 
Wieso wird die GTX 780 in Tests außen vor gelassen. Die Karte gibt es doch auch noch....

@Topic:
Netter Treiber, die paar % mehr Leistung nehm ich gerne mit.
 
black90 schrieb:
Das Thema Mantle wäre wohl nun vom Tisch.
Kommt ja noch das neue DX, dann wird Mantle noch sinnloser.

Für den kleinen AMD Marktanteil lohnt die extra Arbeit eh nicht.
Und nicht vergessen, auch die 500er und 600er Serie testen !

So siehts aus. Gut dass AMD mit Mantle den Anstoß gegeben hat aber die Marketing-Maschine Mantle dürfte es für AMD jetzt schwerer haben.

Ich würde mir von AMD lieber Konkurrenz im CPU-Bereich wünschen.

Und so ganz aussagekräfitig finde ich den Test hier auch nicht - diese API's sollen ja tendenziell das CPU-Limit umschiffen und bringen recht wenig im Grafikkarten-Limit.

Ich schätze mal da laufen zwischen CB und AMD noch Werbeverträge oder es hat einfach die Zeit für einen vernünftigen Test gefehlt.
 
Simanova schrieb:
Keine Geforce 600 getestet? Ich lade mir mal den Treiber und versuche eine Einschätzung für 2 oder 3 Benchmarks.
Das wäre sehr nett von Dir, da es mich auch interessieren würde. :daumen: Ich denke die 600er Karten sind auch noch genug verbreitet.
 
TenDance schrieb:
Ich nutze seit Jahren eine SSD, hab alle Spiele immer darauf installiert und deinstalliert, mein swapfile läuft da drauf, ich nehm keine Rücksicht auf garnix. Okay, defragmentieren und Index schenk ich mir, aber nach all den Jahren Nutzeralltag sagt mein Herstellertool "Gesundheit: 100%". Selbst Billig-SSDs können mit mehreren Terabyte beschrieben werden - garantiert. Jetzt mecker nicht wegen popeliger shader rum, Du wirst im Leben nicht ein Terabyte pro Jahr auf die SSD schreiben und selbst dann hält das Ding locker ein paar jahrzehnte.

Das kannst du so nicht stehen lassen!
Es werden installierte Spiele einmalig auf die SSD geschrieben und bei jedem mal Zocken nur noch gelesen und dann sollte man erst mal überlegen was eine Graka an Speicher hat und wie oft der durch Level Laden ect neu beschrieben wird. Das sind mehrere GB Daten, die ständig geschäffelt werden.
Das ist überhaupt kein Vergleich.

Das mindeste wäre entscheiden zu können auf welche Festplatte der Cache gespeichert werden soll.

Das klingt zwar wünschenswert und interessant, doch kann das nicht gut sein für eine SSD.
 
Bin ich der einzige der sich fragt ob der Shader-Cache wirklich gut ist?
Auf einer HDD dürfte es doch schneller sein es neu zu berechnen und will man auf die SSD noch mehr Schreib und Lesevorgänge haben?

1. Nvidia hat schon seit Jahren einen Cache für kompilierte OpenGL-Shader, OpenCL-Kernels und CUDA-Kernels unter folgendem Verzeichnispfad:
C:\Users\<Username>\AppData\Roaming\NVIDIA
Das einzige was neu dazu gekommen zu sein scheint ist ein Cache für DirectX Shader und die entsprechende Funktion im Treiber den Cache zu aktivieren
2. Das kompilieren eines Shaders dauert je nach Komplexität des Shaders bis zu einer Sekunde (habe das mal vor einiger Zeit gebenchmarkt), während das Kompilat in dem Cache meist wesentlich kleiner 1 MB ist. Dadurch ist das Laden selbst auf einer HDD schneller, wobei der Treiber den Cache von den bereits kompilierten Shadern des Programms auch im DRAM vorhalten kann, wodurch es noch günstiger wird.
 
Ich schätze mal da laufen zwischen CB und AMD noch Werbeverträge oder es hat einfach die Zeit für einen vernünftigen Test gefehlt.

Was wäre denn deiner Meinung nach ein vernünftiger Test? Sieh der Tatsache ins Auge mehr wie 4% bzw 2,7% bringt der Wundertreiber zusammengefasst in 13 Games eben nicht (und das ist schon ordentlich fürn Treiber). In den Mantle Games Bf4 und Thief hat man sich halt extra Mühe gegeben. Und das bestätigen mehr oder weniger alle andere Testseiten.
 
schade dass ihr das ganze nicht mal mit ner langsameren/ älteren cpu getestet habt...
 
Ich habe gerade Dark Soul 1 getestet muss dazu sagen naja Treiber hat nicht das gewünschte Ergebnis gebracht FPS Absturz und Ruckler, was soll jetzt dazu sagen zu Nvidia neuer „Wundertreiber“ Treiber. Vielleicht bring der neu Treiber bei neuen Spiele das gewünschte Ergebnis aber wie sieht es mit alten Spiele aus wie DirectX 9 oder 10 warum hat CB das nicht getestet ??
 
Zuletzt bearbeitet:
Also im 3DMark -Firestrike- habe ich mit der default Titan nicht mehr Punkte als vorher. Mal sehen, was die Titan-Black so bringt.
 
Von den "bis zu" 31% im SLI bei Sleeping Dogs bleiben bei mir in der Praxis:

nvidiaepisch.png

Und die 2D-Display-Corruption auf´m Desktop bleibt immer noch...immerhin ließ sich der Treiber ohne Bluescreen installieren, natürlich inkl. der Notwendigkeit Surround-Gruppe, erweiterten Desktop und Rahmenkorrektur neu einzurichten.

nvidia.PNG

Morgen wird die 295X2 vorgestellt?
 
Die Einzeltests zeigen: Je mehr ein Spiel CPU-limitiert ist, desto größer die Vorteile vom GeForce 337.50 werden.

liegt das an mir oder hört sich das ein wenig nach yoda-sprache an?
 
Whoozy schrieb:
Zufällig ist die Performancesteigerung nur in Battlefield 4 und Thief (beides Mantle Titel) erwähnenswert. Ein Schelm wer da böses dabei denkt.

Thief habe ich nach dem 3. Kapitel deinstalliert, vor allem weil die Grafik so unterirdisch schlecht ist. Alles grau, matschig und möglichst dunkel. Für so etwas noch Verbesserungen zu schaffen, ist schon absurd genug.
 
An dir es liegen muss, verstehen ich es kann :D

LG
 
Mantle bringt ja keine Grafikchipoptimierung sondern eine CPU-Optimierung. Demnach hätte man auf einer kleineren CPU testen müssen, um herauszufinden, ob NV wirklich an Mantle herankommt. Die PCGH hat das gemacht. Kurzgesagt, es tut sich so gut wie nichts ggü. den Vorgängertreibern und Mantle ist trotzdem meilenweit weg, das ist also wieder pures Marketinggelaber von NV.
Schön hingegen ist, dass sich NV endlich wieder auf Treiberoptimierungen stürzt seit dem Treiber-Seuchenjahren 2012/2013. Das wird echt Zeit, auch bei AMD würde das mal wieder Zeit, aber die haben 1000 andere Softwareprojekte am laufen.
 
Zurück
Oben