Bericht Time Spy: 19 Grafikkarten im 3DMark für DirectX 12 im Vergleich

Speedchecker schrieb:
Die DX12-Fähigkeiten der GTX 980Ti sind genau so gut wie ihre DX11-Fähigkeiten. Die Karte kann keinen Vorteil aus Async Compute ziehen. Pascal-Karten dagegen schaffen das.

Wer hätte gedacht, das nVidias Maxwell-Karten so schnell veralten.

der vorteil ist aber nicht wirklich so groß wie immer behauptet. es sind 15% im DX12 Benchmark von der 980Ti zur 1070. Also wenn das der groß beworbene DX12 Vorteil ist, dann passe ich.
 
@speedchecker

das veralten wundert aber auch nicht oder? ist ja zumindest nicht neu.

@naddel_81

15% haben oder nicht haben, ist ja für lau. von daher nimmt man sowas doch gerne mit. und letzt endlich zeigt vulkan wieviel mehr noch drin ist mit einer neuen LL-API!

gruß
 
ja ok, so betrachtet natürlich nicht. ich meinte eher die allgemeine steigerung der fps durch dx12. natürlich macht es keinen wirklichen sinn von einer 980TI auf eine 1070 zu wechseln.


gruß
 
Speedchecker schrieb:
Wundert das wirklich bei einem Benchmark, in dem ständig das Firmenlogo von Galax (stellt nVidia-Grafikkarten her) zu sehen ist?

Interessant auch, dass Futuremark offenbar so lange mit der Veröffentlichung gewartet hat, bis durch Pascal bei nVidia-Karten im Gegensatz zu Maxwell kein Leistungsverlust mehr auftritt.

Na ja, ich nehme Futuremark jedenfalls nicht mehr ernst.

Ich auch nicht. Dennoch wundert mich der DX12 Zuwachs durch AC, wenn in den derzeitgen DX12 Spielen die Zuwächse wesentlich geringer sind? TW Warhammer ist ein gutes Beispiel, da sieht man dass die Karten kein AC können, da unter DX12 die Performance einbricht. Warum dann auf einmal in TimeSpy alles tutti ist verstehe ich nicht so Recht.

Achja kann man im Timespy denn Tesselation einfach mal abschalten und dann mal testen? Mich würde schon intressieren wie exzessiv man diesesmal Tess genutzt hat.
 
@AMD-Mafiosi

Man munkelt, der Time Spy Bench sei speziell Pascal-freundlich programmiert. Das kann den Zuwachs erklären.

Viel schlimmer ist, dass die Aussage zu Async Compute auf Maxwell-Karten ("Klar kann Maxwell Async Compute in Hardware, muss nur im Treiber freigeschaltet werden...") offenbar nicht stimmt.

Dass das noch immer nicht passiert ist, zeigt der Bensch überdeutlich. Und nach so langer Zeit, das Problem ist seit mehr als einem Jahr bekannt, gehe ich davon aus, dass da auch nichts mehr passieren wird.

edit:

Achja kann man im Timespy denn Tesselation einfach mal abschalten und dann mal testen? Mich würde schon intressieren wie exzessiv man diesesmal Tess genutzt hat.

Ja, kann man:

TS.jpg

Das sind, bis auf den "Demo anzeigen"-Schalter, die Defaulteinstellungen.
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
Ich auch nicht. Dennoch wundert mich der DX12 Zuwachs durch AC, wenn in den derzeitgen DX12 Spielen die Zuwächse wesentlich geringer sind?

So gut wie kein aktuelles Spiel ist explizit für DX12 entwickelt worden. Derzeit sind die großen Studios erst dabei die neue Technik zu implementieren. Siehe zum Beispiel RotTR. Dort gibt es erst seit einer Woche AC Unterstützung.

Erst wenn man von Anfang an die Spiele auf die neuen APIs entwickelt und explizit wie bei der TimeSpy Demo auf hohe Polygonzahlen setzt kann man sich ein abschließendes Urteil erlauben. Solange Spiele noch unter DX11 laufen sollen wird man sich hier stark zurückhalten.
 
Wie passend, ich habe gerade erst das BIOS meiner R9 290X modifiziert und kann direkt vergleichen.

Hier mal mein System:
R9 290X @ 1080/1375 (Crimson 16.7.2)
i7 4790K @ 4,8 GHz
DDR3-2400, CL10

4385 Punkte
Graphics score: 4239
1: 28,65 fps
2: 23,57 fps
CPU test: 5456
18,33 fps

timespy.png
 
Speedchecker schrieb:
@AMD-Mafiosi

Man munkelt, der Time Spy Bench sei speziell Pascal-freundlich programmiert. Das kann den Zuwachs erklären.

Viel schlimmer ist, dass die Aussage zu Async Compute auf Maxwell-Karten ("Klar kann Maxwell Async Compute in Hardware, muss nur im Treiber freigeschaltet werden...") offenbar nicht stimmt.

Dass das noch immer nicht passiert ist, zeigt der Bensch überdeutlich. Und nach so langer Zeit, das Problem ist seit mehr als einem Jahr bekannt, gehe ich davon aus, dass da auch nichts mehr passieren wird.

edit:



Ja, kann man:

Anhang anzeigen 569543

Das sind, bis auf den "Demo anzeigen"-Schalter, die Defaulteinstellungen.

Wie sehen die Werte aus , wenn die Tesswerte verringert werden?

@Xexex:
RotTR ist mit das mieseste Beispiel was man in DX 12 bringen kann. Du magst es als Voreingenommen sehen aber Gameworks ist kein Innovationsmotor sondern Bremse. AMD Evolved mag ja gerne als AMD Sponsored bezeichnet werden, intressanterweise verlieren die NV Karten nicht so Krass an Leistung wie die AMD Karten bei Gameworks.
Für mich passen diese Werte nicht, grade was Maxwell betrifft, wie Speedchecker schon sagte, Passen die Werte nicht in AC. Und wenn 9 von 10 Games mit Low Level API unter Pascal an Leistung verlieren, dann möchte ich doch eher den 10 Games glauben als 3D Murks.
 
Da Time-Spy speziell für die Pascal-Karten programmiert wurde, sind die erzielten Punkte wenig aussagekräftig.
 
Stimmt, aber die "einzelnen Punkte" in AMD gekauften Spielen sind dagegen aussagekräftig. :evillol:
 
Sontin schrieb:
Stimmt, aber die "einzelnen Punkte" in AMD gekauften Spielen sind dagegen aussagekräftig. :evillol:

Es gibt keine AMD gekauften Spiele.. Das siehst du sehr Stark daran wie NV und AMD Karten in AMD Evolved Games Skalieren.. Ich kenne kein AMD Spiel wo eine 970 von einer 380 oder X geschlagen wird. Dass sowas aber grade von dir kommt wundert mich nicht
Achja die AMD Libs sind Quelloffen, die von NV nicht.
Ausserdem seien wir mal ehrlich, AMD hat auch nicht Dice gekauft sondern Dice hat sich an AMD / Intel und NV gewandt, also bitte immer schön bei den Fakten bleiben.
Der Riesengroße Unterschied ist: Schaltet man bei AMD Games Dinge wie Tress FX ab gibts keine Unterschiede, Gameworks Games hingegen sind nicht zu fairen miteinander zu bewegen.. Bestes Beispiel ist Project Cars oder das schöne RotTR ;) Dass NV auch noch eigene DX Strings einbauen lässt setzt dem ganzen die Krone auf. Hairworks ist so ein prominentes beispiel beim Hexer zb
http://www.extremetech.com/extreme/...over-optimizations-to-the-witcher-3-wild-hunt

Und bevor ich dich endlich wieder auf die Ignore setze, Es sind nicht die Einzelnen Punkte.. Aber nunja was soll man dir auch mit Logischen zusammenhängen kommen.
 
Zuletzt bearbeitet:
Naddel_81 schrieb:
der vorteil ist aber nicht wirklich so groß wie immer behauptet. es sind 15% im DX12 Benchmark von der 980Ti zur 1070. Also wenn das der groß beworbene DX12 Vorteil ist, dann passe ich.

Da die DX12 Features nicht getestet werden, was auch im Bericht geschrieben wird, kann man den Vorteil gar nicht erkennen .... scheinbar träumen das alle grünen Fanboys, das das trotzdem getestet wird und die Karten so gut abschneiden.
 
Interessant, während Ashes of the Singularity, ein Spiel mit bester DX12-Unterstützung (z.B. Multi-Adapter für Zusammenarbeit von Geforce und Radeon etc.) noch als "Benchmark" galt, dessen Erkenntnisse nichts wert sind, ist auf einmal "Time Spy" mit bis dato fragwürdiger DX12-Umsetzung allgemeingültig :D

Denn es darf nicht sein, was nicht sein darf..
 
HeinzNeu,
Ashes of Singularity - AMD Gaming Evolved
Hitman - AMD Gaming Evolved
Warhammer - AMD Gaming Evolved
Doom - Warte Doom? Richtig. Der Hauptentwickler bewirbt über seinen Twitteraccount AMD-Karten: https://twitter.com/idSoftwareTiago/with_replies?lang=de

Woran sonst machen Leute fest, dass Timespy "für Pascal" optimiert wäre? Würde man Tomb Raider nehmen, entspreche das Ergebnis 1:1 dem aus Timespy.
 
BookerDeWitt schrieb:
Interessant, während Ashes of the Singularity, ein Spiel mit bester DX12-Unterstützung (z.B. Multi-Adapter für Zusammenarbeit von Geforce und Radeon etc.) noch als "Benchmark" galt, dessen Erkenntnisse nichts wert sind, ist auf einmal "Time Spy" mit bis dato fragwürdiger DX12-Umsetzung allgemeingültig :D

Denn es darf nicht sein, was nicht sein darf..

Ist ja Nvidia, die machen ja sowas nicht.. Oh Wait ich dachte du meinst AMD :D Also bei manchen Leuten fragt man sich dann echt ob es bezahlte Marketingprofis sind. Time Spy ist für mich nicht den Code wert, Die AMD Spiele haben über den Zeitraum des AMD Programmes wesentlich besser mit NV Skaliert und das ist für mich Beweis genug. Ausserdem kommt ja hinzu dass die Evolved Libs Quelloffen sind und AMD nicht so ein Geheimnis draus macht wie NV mit Gameworks. Aber manche Leute glauben auch RotTR ist ein Paradebeispiel für DX12 und es ist eine böse böse Verschwörung gegen NV im Gange :D
 
Sontin schrieb:
...

Woran sonst machen Leute fest, dass Timespy "für Pascal" optimiert wäre? Würde man Tomb Raider nehmen, entspreche das Ergebnis 1:1 dem aus Timespy.
Das liegt in der Art wie Futuremark AC nutzt. Es kommt der schwäche von Nvidia sehr entgegen und verhindert ein noch besseres abschneiden der AMD GPUs.
Naja, immerhin bleiben die AMD GPUs kühler als in den ganzen DX12 Spielen, ist aber lustigt das ein "Benchmark" sie nicht voll auslasten kann/will. ;)


Dabei: Sind Nvidia Treiber nun schlechter geworden oder warum Profitiert Pascal nun doch noch von "Nvidias AC"? Dachte das bringt bei Nvidia eh nichts da die GPUs durch den super Treiber schon komplett ausgelastet sind? Wurde zumindest sooo oft behauptet.
 
Zuletzt bearbeitet:
@Janeeisklar:
Wo ist der Likebutton, wenn man ihn mal brauch ;)
 
Speedchecker schrieb:
@AMD-Mafiosi
Man munkelt, der Time Spy Bench sei speziell Pascal-freundlich programmiert. Das kann den Zuwachs erklären.
Das munkelt man bei jedem Benchmark und jedem Game, wo Nvidia zulegt oder besser ist als AMD, da hat Nvidia immer seine Finger im Spiel und alle Entwickler geschmiert. Wenn AMD zulegt oder besser ist, dann liegt das immer an der Zukuntsweisende Technik und dem überragenden GCN, ist klar. Kommt aber überwiegend auch gerade hier im Forum immer wieder von den gleichen Usern und ist auf AMDBASE nichts Neues. ;)
 
Zurück
Oben