Bericht Time Spy: 19 Grafikkarten im 3DMark für DirectX 12 im Vergleich

Durante schrieb:
Das bestätigt eigentlich genau was Warlock666 geschrieben hat. Aus einer reinen Hardware-perspektive sollte eine 390 viel schneller sein als eine 970 -- ~5.5 vs. ~3.5 TFlops, 384 GB/s vs. ~196 GB/s Speicherbandbreite. Dass sie das in DX11 und OpenGL meistens nicht war zeigt dass sie in diesen APIs sehr ineffizient gearbeitet hat.
Dass die GCN Architektur auf parallele Arbeit ausgelegt wurde und deshalb in DX11 nicht voll ausgelastet wird, war und ist schon länger bekannt und sollte klar sein. Entsprechend arbeitet GCN zwar nicht effizient in DX11 aber dennoch schneller als die Konkurrenz (390vs970). Dafür dann um so effizienter und schneller unter DX12/Vulkan (nicht nur im 3DMark).
Und welchen Nachteil habe ich als Kunde davon? Eine 390 verbraucht dafür mehr Strom als eine GTX970, was ebenfalls jedem klar ist. Sie lässt sich aber problemlos leise & kühl betreiben. Und das ist der ausschlaggebende Punkt, wodurch nur noch die Verbrauchskosten, Grakawechsel-Häufigkeit und die zukünftige Leistung entscheidend sind für die Investition in eine Grafikkarte.

Als Kunde entscheide ich dann, was für mich persönlich die bessere Investition ist bzw. den höheren ROI hat. Kann man ja simpel rechnen, wie häufig man Spielt (Kosten) und ob man schon in 2-3 Jahren aufrüsten möchte oder nicht.
Da wiegen beispielsweise bei meinem Spielprofil und Kaufverhalten 8GB +momentan ca. gleiche Leistung (DX11) und +20% Leistung in Zukunft (DX12) +höherer Verbrauch (390) mehr als eine momentan sparsamere aber dafür bereits ausgereizte Karte mit effektiven 3,5GB +keine Mehrleistung in Zukunft (970). Ich spiele selten (Verbrauchskosten daher irrelevant), muss die Karte nicht nach 2-3 Jahren wechseln und würde somit auf +20% Performance in Zukunft verzichten.
Das Profil kann bei anderen Usern völlig unterschiedlich sein. Das sind individuelle Entscheidungen, deshalb verstehe ich auch nicht, wieso viele hier den Kauf einer GTX 970 rechtfertigen müssen. Man hat sich entschieden und sich auch was dabei gedacht (oder eben nicht).
 
Zuletzt bearbeitet:
flappes schrieb:
Klar, sieht man ja an den Milliardengewinnen von AMD pro Quartal :freak:

Womit vergleichst Du ???
Die letzten Quartale hat AMD (leider) nicht viel verkauft.

Die Konsolenchips waren kein gutes Geschäft für AMD.
MS und Sony haben den Preis wahrscheinlich extremst gedrückt.
 
Fläschkees schrieb:
. Dass nVidia das schon seit Maxwell behauptet und angeblich immer noch dieser Wundertreiber kommen soll, sollte Beleg genug dafür sein.

Gerade erst angemeldet und schon so einen Blödsinn am schreiben? Glaubst du denn die Benches mit AC würden laufen, wenn der Treiber es nicht könnte? ALLE DX12 Treiber MÜSSEN mit AC umgehen können und tun das auch. Das gilt übrigens für Intels iGPUs ebenso.
 
Ich vergleiche garnicht, nur die Aussage, dass AMD 100 $ / Chip "verdient" ist an den Haaren herbeigezogen.
 
berkeley schrieb:
Dass die GCN Architektur auf parallele Arbeit ausgelegt wurde und deshalb in DX11 nicht voll ausgelastet wird, war und ist schon länger bekannt und sollte klar sein.

Das ist schon deshalb Unsinn, weil alle GPUs parallel arbeiten.
Bei AMD sind einfach die Treiber für OpenGL und DX11 Schrott!
Denn die Anweisungen, die der Command-Prozessor in der GPU bekommt (sozusagen die Maschinensprache der GPU) sind unabhängig von der API immer die gleichen.
 
kisser schrieb:
Gerade erst angemeldet und schon so einen Blödsinn am schreiben? Glaubst du denn die Benches mit AC würden laufen, wenn der Treiber es nicht könnte? ALLE DX12 Treiber MÜSSEN mit AC umgehen können und tun das auch. Das gilt übrigens für Intels iGPUs ebenso.
Und trotzdem kenne ich schon deine Posts ;)
Die Treiber ja, die Hardware nein. Aber das sind schon so olle Kamellen, ich werde mir nicht die Mühe machen und versuchen, dich aufzuklären wie es schon 100 andere vor mir gemacht haben. :freak:

kisser schrieb:
Das ist schon deshalb Unsinn, weil alle GPUs parallel arbeiten.
Schon so lange dabei und immer noch am Blödsinn schreiben :rolleyes: Jeder, der bei GPUs von Parallelität spricht, redet von paralleler Abarbeitung von Graphics und Compute (und Copy commands).
 
Zuletzt bearbeitet:
drago-museweni schrieb:
Super das der Download unter dem Artikel der veraltete ist schön wenn man über sein LTE 2,1GB Volumen verbrät nur um dann zu sehen das Time Spy nicht dabei ist. Danke

Ja hab mich auch schon geärgert. Warum CB nicht einfach mal erwähnt dass ihr Link Time Spy nicht enthält, braucht nan wohl nicht zu verstehen.

@Berkeley welche Freesync Monitor ist es, der 30-75 Hz synchronisiert?
 
Zuletzt bearbeitet:
@fläschkess bei Ashes ist unter DX12 AC Standardmäßig an. Das sieht man auch an den Pascal Benchmarks zu Ashes wo sie im Gegensatz zu Maxwell zulegen. Die 1070 die sonst bei ~ 980ti Niveau ist, liegt hier klar vor ihr und die bekannten Ashes Werte beim 1060 deuten auch an das hier DX12 und AC kein Nachteil für Pascal ist.
 
@kisser:
nicht die alten APIs sondern AMDs Treiber ist "Schrott" :rolleyes:
Mit den neuen APIs ist der Treiber dann nicht mehr "Schrott"? Wieso eigentlich nicht?


@zeedy:
Ist ein Samsung S24E370DL, aber die Range habe ich selbst erweitert von 48-75 auf 30-75 (sind ja nur 3 Mausklicks). Hier ist eine Liste mit Erfahrungswerten zu den FS-Ranges.
 
Zuletzt bearbeitet:
DieWahrheit schrieb:
@fläschkess bei Ashes ist unter DX12 AC Standardmäßig an. Das sieht man auch an den Pascal Benchmarks zu Ashes wo sie im Gegensatz zu Maxwell zulegen. Die 1070 die sonst bei ~ 980ti Niveau ist, liegt hier klar vor ihr und die bekannten Ashes Werte beim 1060 deuten auch an das hier DX12 und AC kein Nachteil für Pascal ist.
Das AC bei Pascal sogar Vorteile erzielen kann hatte ich bereits geschrieben. Das deaktivierte AC bezog sich in meinem Post hauptsächlich auf die Maxwell-Karten. Aber auch in Vulkan wird AC (bisher) noch gar nicht vom nVidia-Treiber unterstützt, auch nicht unter Pascal.
 
Kann man die 290x generell mit einer 390x gleichsetzen? Mich wunderts, dass die 290x kaum in Benchmarks beachtet wird.
 
Hier mal mein FX 8350 @ 5320MHz und RX 480 @ 1360/2250MHz

DX12.png
 
Fazit nach 13 Seiten Kommentar lesen: viel zu viel Kevin Gelaber und unsinniges Zeugs. Man darf hier gar nichts glauben. Ständig Halbweisheiten und pauschale Aussagen.

Danke jedenfalls für den Test CB.
Freut mich, dass AMDs Politik nach langem Durchhalten Früchte trägt. :)
 
treib0r schrieb:
Kann man die 290x generell mit einer 390x gleichsetzen? Mich wunderts, dass die 290x kaum in Benchmarks beachtet wird.
Im Prinzip schon, ja.
 
berkeley schrieb:
@zeedy:
Ist ein Samsung S24E370DL, aber die Range habe ich selbst erweitert von 48-75 auf 30-75 (sind ja nur 3 Mausklicks). Hier ist eine Liste mit Erfahrungswerten zu den FS-Ranges.

Okay krass wie günstig der Monitor mittlerweile ist. Aber wenn man die Range so einfach so massiv erweitern kann, warum macht es Samsung nicht gleich selber, ist dich ein gutes Verkaufsargument?
 
http://www.3dmark.com/spy/29925

3DMark Score 3844
Graphics Score 3989 (AMD R9-290 @1100/1.250 )
CPU Score 3192 (Flaschenhals - i7-950 @ 4.2GHz)
Graphics Test 1 26.77 fps
Graphics Test 2 22.31 fps
CPU Test 10.73 fps (Flaschenhals - i7-950 @ 4.2GHz)


Fazit: Dank DX12 reicht die alte CPU sogar heute noch grundsätzlich aus :)
 
smalM schrieb:
Was sich herauskristallisiert ist, wessen Engine mit DX12 mit Pascal und GCN nicht mindestens 5% - 10% zulegt, der hat die Implementation schlicht versaubeutelt...

wieso?

Vielleicht musst du auch einen Athlon X4 einbauen um die 5-10% zu sehen, selbst dann is die Implementierung ja gut. Eine anständige Engine muss ja nicht unbedingt in ein Overhead-Problem laufen sofern man eine recht fixe GPU einsetzt. Bei Tomb Raider funktioniert die CPU Entlastung auch 1a, muss aber nicht bedeuten dass Mehrleistung bei rumkommt.
 
zeedy schrieb:
Okay krass wie günstig der Monitor mittlerweile ist. Aber wenn man die Range so einfach so massiv erweitern kann, warum macht es Samsung nicht gleich selber, ist dich ein gutes Verkaufsargument?
Jup dachte ich mir auch, "Das Costa fast gar nix".
Samsung macht es selbst vermutlich nicht, weil es keine 100%ige Garantie für Funktion gibt und weil man evtl. die eigenen höherpreisigen Monitore nicht "kannibalisieren" möchte. Die Range geht aber bei den meisten Herstellern auf bis 30Hz oder mind. 35Hz runter. Wie gesagt, mit 3 Mausklicks.
 
Zurück
Oben