Bericht Time Spy: 19 Grafikkarten im 3DMark für DirectX 12 im Vergleich

Man muss hier mal klarstellen, dass die Maxwell Grafikkarten keine DX12-Schwäche besitzen, sondern die rein von der Leistung her viel stärkeren AMD-Grafikkarten im Gegenzug eine DX11-Schwäche aufweisen und schlichtweg nie richtig ausgelastet waren und sind.
Nvidia hat es mit Maxwell bereits geschafft, eine hervorragende Auslastung der vorhandenen Ressourcen zu erreichen und dadurch aus wenig Rohleistung eine gute Spieleperformance verursacht. AMD hat dagegen mit Ihren Rechenmonstern eine brachiale Leistung auf dem Papier, die aber besonders unter DX11 selten zur Geltung kommt.

Eine Radeon 390X hat 5,9TFlop/s SP-Leistung und 384Gbit/s Speicherbandbreite
Eine GTX 970 hat 3,9TFlops/s SP-Leistung und 196Gbit/s Speicherbandbreite
Eine GTX 980 TI hat 6,7TFlop/s SP-Leistung und 336Gbit/s Speicherbandbreite

Der Unterschied bei DX12 und Async Compute zwischen Nvidia und AMD ist nun, dass AMD aus seinen Rechenwerken noch viel mehr Leistung rausholen kann und man bei Nvidia bereits deutlich mehr Effizienz aufweißt und dadurch nicht die selbe Steigerung erzielen kann, weil es schlichtweg viel weniger Verbesserungspotential für die vorhandene Hardware gibt. Die Karten ordnen sich nun viel näher an der jeweiligen Rohleistung ein, als das bisher der Fall war. Das ist kein Betrug von Nvidia und auch kein Meisterwerk von AMD, das war schon vor Jahren klar.
 
berkeley schrieb:
Für die non-Steam Version:
Man muss wohl das TimeSpy Update runterladen und installieren (ca. 3gb lt. Steam). Auf der futuremark Webseite unten wird bereits ein "defekter" Download angeboten (verweist auf alte 3DM Version).

Na großartig, noch mal 3GB... Aber danke für den Hinweis.

Habens alle anderen von Steam geladen? :D
 
@eXEC-XTX

Und welche Schlussfolgerung zieht man daraus? Die R9 290er bzw. 390er waren den GTX 970er schon unter DX11 ebenbürtig (und jetzt noch mehr, je nach Game mal mehr und mal weniger). Und preistechnisch waren AMD Karten den Nvidia Karten meist sogar überlegen.

Fazit --> Man hat mit AMD eine deutlich langlebigere Karte, die jetzt nicht nur gleich auf/leicht schneller ist (wie in DX11) sondern im Zweifel sogar gleich 22% schneller. Man hat sich ein "GPU-Monster" gekauft und das zahlt sich wohl dann auch aus ;)

Verbraucht halt mehr Strom, who cares (also 24/7 Zocker bestimmt aber mich z. B.?...nö)


Insofern, schön und gut, dass Nvidia bereits unter DX11 (und somit auch unter DX12) alles rausgeholt hat. Für mich als Kunde bei Nvidia ist das ganz sicher kein Vorteil, wenn die Karten der Konkurrenz auf "Sparflamme" unter DX11 dennoch genau so schnell sind und unter DX12 dann davon ziehen. Ich muss dann im Zweifel eine neue Karte kaufen oder auf 22% Performance verzichten. Mehr Leistung kommt da schließlich nicht mehr.

--> Lieber Schwäche unter DX11 und dennoch gleich schnell (AMD) als keine "Stärke" unter DX12 und gleich 22% Performanceverlust (Nvidia). Ich weiß ja nicht, wie andere Kunden so denken...
Alles bezogen auf ca. 380/290/390(X)/480 vs. 960/970/980
 
Zuletzt bearbeitet:
falsch lol
 
Zuletzt bearbeitet:
habe 4k amd freesync TFT, was soll ich am besten machen? 2 x 480, die nvidia 1080, oder auf Vega warten?
 
Aber eigentlich sagt man doch auch Nvidia würde wegen ihrem super Hammer geilen Treiber die GPU zu 100% auslasten. Wie kann es denn sein dass sie nun von AS "scheinbar" profitieren?
 
Steinigt mich, aber ein Benchmark der von einem Nvidia only Hersteller gesponsort ist, kann ich nicht ernst nehmen.
 
eXEC-XTX schrieb:
Man muss hier mal klarstellen, dass die Maxwell Grafikkarten keine DX12-Schwäche besitzen, sondern die rein von der Leistung her viel stärkeren AMD-Grafikkarten im Gegenzug eine DX11-Schwäche aufweisen und schlichtweg nie richtig ausgelastet waren und sind.
Nvidia hat es mit Maxwell bereits geschafft, eine hervorragende Auslastung der vorhandenen Ressourcen zu erreichen und dadurch aus wenig Rohleistung eine gute Spieleperformance verursacht. AMD hat dagegen mit Ihren Rechenmonstern eine brachiale Leistung auf dem Papier, die aber besonders unter DX11 selten zur Geltung kommt.

Eine Radeon 390X hat 5,9TFlop/s SP-Leistung und 384Gbit/s Speicherbandbreite
Eine GTX 970 hat 3,9TFlops/s SP-Leistung und 196Gbit/s Speicherbandbreite
Eine GTX 980 TI hat 6,7TFlop/s SP-Leistung und 336Gbit/s Speicherbandbreite

Der Unterschied bei DX12 und Async Compute zwischen Nvidia und AMD ist nun, dass AMD aus seinen Rechenwerken noch viel mehr Leistung rausholen kann und man bei Nvidia bereits deutlich mehr Effizienz aufweißt und dadurch nicht die selbe Steigerung erzielen kann, weil es schlichtweg viel weniger Verbesserungspotential für die vorhandene Hardware gibt. Die Karten ordnen sich nun viel näher an der jeweiligen Rohleistung ein, als das bisher der Fall war. Das ist kein Betrug von Nvidia und auch kein Meisterwerk von AMD, das war schon vor Jahren klar.
Nochmal: Nvidia braucht bei AS immer wieder Kontext-wechsel! Das ist deren schwäche.
 
wie schon am ende des artikels steht, die aussagekraft ist fraglich, vorallem bei pcs die in der praxis nicht jedesmal komplett neu aufgesetzt werden um so einen bench durchlaufen zu lassen.
 
Eigentlich sind die 3D Mark immer sehr verlässlich bezüglich durchschnittlicher Raw Power von Grafikkarten
 
Immerhin, man kann bei TimeSpy "Max tessellation factor" einstellen, Default ist 32 eingestellt. Danke @Nvidia ;)
 
feidl74 schrieb:
wie schon am ende des artikels steht, die aussagekraft ist fraglich, vorallem bei pcs die in der praxis nicht jedesmal komplett neu aufgesetzt werden um so einen bench durchlaufen zu lassen.

Glaube kaum dass PC "neu aufsetzen" großartig was bringt, wir leben ja nicht mehr in Windows 98 zeiten.
 
jecki007 schrieb:
habe 4k amd freesync TFT, was soll ich am besten machen? 2 x 480, die nvidia 1080, oder auf Vega warten?

Vega natürlich. 480 zu lahm, Nvidia und freesync😉 warte auf Vega, ich mit Fury warte auch.
 
@berkeley: Das stimmt nur zu Teilen, das einzige was zählt, sind FPS und Bildqualität, dabei idealerweise mit niedrigem Stromverbrauch und wenig Wärmeentwicklung. Ich habe 2014 bewusst zu einer Nvidia GTX 970 gegriffen, weil G-Sync einfach überlegen ist und war (30-144Hz Range) und damals AMD-Lösungen noch nichteinmal in Aussicht waren. Außerdem ist es ja nicht gerade so, dass eine 290X mit 4GB Kreise um die GTX 970 dreht, vielmehr sind das wenige Prozent, selbst in diesem Benchmark hier - welcher ja den Idealzustand für AMD darstellt, ist der Unterschied "nur" bei 12% und dabei sind die Partnerkarten der Nvidia deutlich stärker übertaktet, weil auch thermisch und beim Stromverbrauch viel mehr Spielraum noch existiert. Mein System hat mit einer Asus Strix 1417/7600Mhz 3 814 3DMarks zusammen mit einem 4770K 4Ghz und hat dabei ein PowerTarget von "nur" 200 Watt (entspricht MSI Gaming 970 4G). Die 290X hat schon ohne Übertaktung ein TDP von etwa 275 Watt ("Typische Leistungsaufnahme" liegt bei 250 Watt, die echte TDP ist aber höher) und die OC-Modelle der 290X verbrauchen laut Test nochmal 90 Watt mehr. Wenn du obendrein noch ein bisschen Takt rausschlägst, hast du mindestens 350 Watt Leistungsaufnahme durch die Karte, welche als Abwärme in dein Gehäuse abgeführt wird, während die Nvidia nie über 200 Watt kommt, sofern das PowerTarget nicht erhöht wird - StandardPowertarget sind gar nur 145 Watt.
 
Zuletzt bearbeitet:
Zurück
Oben