News Ashes of the Singularity: Neue DirectX‑12-Benchmarks mit AMD und Nvidia

Hab mir jetzt nicht alle Kommentare durchgelesen aber irgendwie ist diese News komisch
Es gibt keinerlei hinweise mit welchen Taktraten die GPUs liefen und auch das MSAA deaktiviert wurde weil dies auf Nvidia Karten nicht richtig läuft ist sehr Fragwürdig

Ähm ja, so sind es nette Balken ohne Aussagekraft mit ein kleines bisschen "geschmäckle" weil man einfach mal so MSAA deaktiviert
 
Dai6oro schrieb:
Omg weil die Performance ja mit der Auflsöung linear abnimmt oder wie soll ich das verstehen?

nein, das soll dir zu verstehen geben das es irgendwo auch mal einen punkt gibt wo der overhead in kombination mit einer "durchschnittlichen" cpu irgendwann so brutal zuschlägt das dann einfach mal fast garnichts mehr geht.

zb in project cars.
da macht die amd+ amd combo kaum mehr als 20fps.

der übertaktete 2-3 mal so teure i7 ist zwar in der lage die fps zu verdoppeln, aber selbst der schafft es nicht da fluppige 60fps draus zu machen.
d2yf1qrioa1x27xhr.gif

https://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/

jetzt kannst du in diesem spiel zwar die auflösung richtung 4k erhöhen, ohne das sich da nach unten groß etwas an den fps ändert,
besser spielbar wirds dadurch dann aber trotzdem nicht.
 
Zuletzt bearbeitet:
du hast ja auch nur so einen "lahmen" vishera wie ich (8320@4,5ghz),
grade dich müsste diese thematik doch irre interessieren?

Natürlich nur wie gesagt, mein lahmer Vishera ist lahm bei high FPS Gaming (120Hz/144Hz) oder in niedrigen Auflösungen. Da ich aber nativ mit 1440p oder seit der FuryX auf UHD zocke ist CPU Limit nicht mein Problem. Hier würde ich von ner 300€ CPU nicht profitieren. Ich weiß selbst gut genug was ich täglich auf meinem Bildschirm sehe.

Daher blicke ich bei DX 12 auch nicht so auf den CPU Overhead. Mantle Benches haben ja gezeigt, dass dieser in den hohen Auflösungen kein Thema ist. Ich hoffe dass im GPU Limit noch etwas geht.

PS: Das Project Cars auch außergewöhnlich schlecht auf AMDs läuft ist dir aber bewusst.

Ich mach auch mal Bildchen rein sonst wird das ja ignoriert:

ACU:
1.PNG

COD:
2.PNG

Dragon Age

3.PNG

FC 4

4.PNG

Nur Ryse fällt aus der Reihe obwohl das Spiel nicht CPU limitiert sein sollte. Hier stimmt wohl etwas an anderer Stelle nicht:

5.PNG
 
Zuletzt bearbeitet:
in meinen augen sollte man diesem test aus heutiger sicht nicht soviel aufmerksamkeit schenken bzw wenig als kaufentscheidung herhalten. dx12 ist noch relativ jung, treiberoptimierungen werden da sicher noch kommen wenn spiele in ihrer vielfalt anfangen zu existieren in DX12. sehe das ganze eher als "lückenfüllerartikel"... kennt ihr das, es wird alles nicht so heiss gegessen wies gekocht wird?

jetzt schreit jeder und ist glücklich für sich die richtige karte gekauft zu haben um sein gewissen zu beruhigen, und beim nächsten spiel schreien dann nicht mehr die grünen sondern die roten, weil physix fehlt oder oder oder ....

ich habe eine kaufentscheidung in erster linie vom buget und bauchgefühl abhängig gemacht nachdem ich fakten recherchiert habe. und ein oder zwei spiele macht noch keine allgemeingültige aussage...

meines erachtens wird die nächste generation graka und bis dahin mehr dx12 spiele entscheiden wer das dx12 feld besser drauf hat.

ich gönne es aber AMD, den konkurrenz belebt das geschäft und es wäre schön dauerhaft die entscheidung zu haben welche grafikkarte man bevorzugt.


drücke AMD die daumen das sie das dx12 feld weiterhin vor den grünen führen
 
Zuletzt bearbeitet:
@sTOrM41

Das ist schon richtig, dass die GCN Architektur (1.1, 1.2) weniger auf DX11 als auf DX12 zugeschnitten ist. Genau aus diesem Grund gibt es in bestimmten! (bei weitem nicht allen) DX11 Spielen den Overhead als limitierenden Faktor. Dieses Problem lässt sich in DX11 auf GCN auch in Zukunft nicht so einfach lösen. Das hat auch weniger mit dem Treiber als mit der GPU Architektur und DX11 an sich zutun.

Alle bisherigen Nvidia Architekturen sind sehr stark bzw. ausschließlich auf DX11 zugeschnitten (Kepler, Maxwell 1.0). Selbst die Maxwell 2.0 Architektur ist extrem stark an DX11 angepasst und zieht aus DX12 relativ wenig Nutzen (nach bisherigen Erkenntnissen).

Nvidia kann es sich finanziell leisten, jedes Jahr eine angepasste Architektur zu bringen. Das kann AMD nicht.
Durch diese ganzen Anpassungen der Architektur konnte Nvidia den Stromverbrauch in DX11 stark drücken. Aber selbst das hat AMD mit etwas Verzögerung noch gezaubert (wenn auch nicht im gleichen Maße, siehe GCN1.2 Fury, FuryX, bei Nano schon). Und bzgl. DX12 hat GCN mehr Potential, weil die Architektur nun ausgelastet und effizienter genutzt werden kann während unter DX11 ein Großteil der Leistungsaufnahme im nichts verpufft ist. Das hat nicht ausschließlich mit dem Overhead zutun, dass GCN unter DX12 effizienter arbeitet. Maxwell 2.0 arbeitet durch Anpassungen der Architektur bereits mit DX11 am Effizienzmaximum und Overhead ist nicht gerade der limitierende Faktor. DX12 kann daher zumindest die bisherigen Nvidia Architekturen nicht im gleichen maße beschleunigen wie GCN (bis auf Ausnahmen, wo tatsächlich ausschließlich der Overhead limitiert), das sollte einleuchten.
 
Zuletzt bearbeitet:
Nvidia kann es sich finanziell leisten, jedes Jahr eine angepasste Architektur zu bringen. Das kann AMD nicht.
Man sieht das irgendwie etwas zu kurzfristig.
Auf GCN zu setzten, wurde ja nicht gestern entschieden sondern vor 10 Jahren. Soviel ich mich erinnere, arbeitet AMD an GCN seit sie ATI übernommen haben. AMD hatte von Anfang an das Ziel einen Grafik-Hersteller zu kaufen und dann Compute Geschichten in deren CPUs, besser gesagt SoC zu integrieren. Da die CPU bekanntlicherweise eher in seriellen Dingen seine Vorteile hat, war es nur klar, dass man für zukünftige APUs eine GPU benötigt, die eben stark auf parallelisierte Anwendungen hinrichtet.
Somit man hat wahrscheinlich beim Kauf von ATI bereits einen Weg gerichtet und sicherlich auch angenommen, dass sobald GCN auf den Markt kommt, vieles weit aus mehr parallelisiert werden kann.
DX11 ist ja im vergleich zu DX12 ja an einen großen Thread gebunden und NV ist hier zugeschnitten. AMD hingegen hat seit GCN daran gearbeitet, dass mehrere Threads optimal Shader zu gewiesen werden können und somit die GPU besser ausgelastet wird.
Das soll heißen, hier hat man in der Zukunft eventuell damit gerechnet, dass in Zukunft mehr Threads genützt werden können, die man versuchen muss, optimal auslasten zu können und dafür ist ja AS auch da.

Aber wie man sieht, ist in DX11 nicht viel umgesetzt worden, was sich AMD erhofft hatte und deshalb auch der Gang zu Dice und die Mantle API, um einen Prototypen zu haben und um das alles in Bewegung zu bringen.
Klar sollte sein, wenn es gewollt gewesen wäre, ein größerer Druck schon früher da gewesen wäre, hätten wir eventuell andere "Hardware".
Man sollte sich mal im klaren werden, dass die Software eine große Mitschuld hat, wieso wir keine günstigen Multi-Core Prozessoren haben.
Denn es wird ja groß die Meinung vertreten, dass ein Dual Core mit Hyperthreading ja völlig ausreicht und mehr als 4 Cores sowieso ein Overkill ist. Aber es wird vergessen, dass diese Meinung auf aktuelle Limitation alter APIs beruht und somit ist es durchaus schwer nachvollziehbar, wieso sich viele (bei der Vorstellung) gern selbst "beschneiden" und für weniger lieber mehr zahlen wollen.


Ich möchte noch mal den Vergleich zu vorhin bringen. Im Endeffekt steht GCN in Relation zu breite Panzerketten, die auf einer Straße kaum Vorteile hat, aber dann auf neuen Boden einen komplett anderen Wert dazu gewinnen kann, siehe Gelände.
DX12 bringt nicht nur weniger CPU Overhead, es ermöglicht auch mehr Physik Effekte, neue Engine, neue KI und da ist es durchaus interessant, wenn man die GPU und auch die IGP in Zukunft einbinden kann.
 
Zuletzt bearbeitet:
@pipip
Ich kann nur zustimmen.

Alle Gamer und andere User wären heute sicherlich wesentlich weiter bzgl. Multicore und Parallelisierung in Games (und Anwendungen), wenn es tatsächlich mehr als nur AMD und DICE gepusht hätten. Dass DX12 wesentliche Vorteile ggü. DX11 bietet steht außer Frage. Und das wir User das alles bereits vor 3-5 Jahren hätten haben können ebenfalls. Nur ist es in keinem Fall rentabel für Unternehmen, einen solchen Aufwand zu betreiben wenn es nicht unbedingt sein muss. AMD geht da aber schon länger andere Wege.
 
Dai6oro schrieb:
Ich kann dir nur den Link posten (zum 3.ten mal ;) )
https://www.computerbase.de/2015-06...schnitt_benchmarks_auf_dem_intel_core_i52500k

Dass CB keine Angaben zu den Settings macht oder diese versteckt tja das nervt wirklich. Du kannst aber davon ausghehen, dass z.B. bei Unity die Werte ohne MSAA sind denn die decken sich hiermit: https://www.computerbase.de/2015-06...t/6/#diagramm-assassins-creed-unity-1920-1080

in advanced warfare aus deinem link kannst du zb schön sehen was der overhead mit den roten anstellen kann,
da rennen die karten selbst in 1440p noch ins cpu limit.
und das ist nen benchmark in kombination mit i7, mit dem vishera schaut das ganze noch etwas schlimmer aussehen.
d2yg3wqadhbiw71hr.jpg

http://gamegpu.ru/action-/-fps-/-tps/call-of-duty-advanced-warfare-test-gpu.html

um das bild mal in worte zu fassen:
mit der roten karte brauchst du in diesem spiel grob doppelt so viel cpu power um etwa die selben fps wie mit der grünen zu erreichen.
 
Zuletzt bearbeitet:
@sTOrM41
Sorry aber COD AW ist nun wirklich kein Vorzeigebeispiel für einen Overheadlimit. Allerhöchstens für ein mies optimiertes Game oder eine sehr starke Zusammenarbeit mit Nvidia, wo in 1440p selbst die Sapphire Fury auf dem Niveau einer 970 NON OC arbeitet...
https://www.computerbase.de/2015-07...st/4/#diagramm-cod-advanced-warfare-2560-1440

Kann auch sein, dass hier bestimmte Settings viel oder einiges ausmachen (wie in PCars).

EDIT:
Aus dem Link von max_1234 könnte man auch schließen, dass AMDs Karten in dem Spiel nicht sonderlich gut mit SMAA TX2 zurecht kommen. Das schlechte Abschneiden spricht dann eher für Settings.
 
Zuletzt bearbeitet:
mit der roten karte brauchst du in diesem spiel grob doppelt so viel cpu power um etwa die selben fps wie mit der grünen zu erreichen.

Das kommt aber nicht exklusiv vom "CPU Limit" sondern hier spielt die Tatsache rein, dass COD besser auf Nvidias läuft. Wenn dann bräuchtest du ein Spiel das weder die eine noch die andere Seite bevorzugt ansonsten kannst du doch gar nicht festellen wo ein Limit anfängt oder aufhört. Deine Interpretation der Balken ist nicht korrekt.
 
Cherrypicking, bei AMD können auch gerne mit Battlefront, Evolve oder CS:GO Benches kommen, beides DX11 in denen AMD Karten im Vergleich zum Nvidia Pendanten nicht nur knapp, sondern klar vorne liegen - und das ohne Manipulationen ala LagWorks.

mfg,
Max
 
max_1234 schrieb:
Was ist das bitte für ne merkwürdige Seite -> Quelle posten!

Hie die CB CPU-Tests für Advanced Warfare: https://www.computerbase.de/2014-11/cod-advanced-warfare-grafikkarten-test-vergleich-benchmark/
Abweichungen von 5-10% bzgl. CPU Skalierung kann man nicht als "ins Limit rennen" bezeichnen, kapier das doch endlich mal.
Nicht nur das, auch wurde dir bereits mehrfach eingetrichtert warum das so ist.

mfg,
Max

computerbase schreibt doch nichts anderes..

"Es macht sich in Full HD auf einer High-End-Grafikkarte erneut bemerkbar, dass der GeForce-Treiber effektiver mit der vorhandenen CPU-Leistung umgehen kann – unabhängig davon, ob eine schnelle oder eine langsame CPU vorhanden ist. Zudem profitiert die Radeon R9 290X mehr von einer schnellen CPU als die GeForce GTX 980. Während erstere beim Wechsel von einem AMD FX-8370 auf einen auf 4,4 GHz übertakteten Intel Core i7-4770K um 27 Prozent zulegen kann, sind es auf letzterer nur zehn Prozent."

wenn dir 27% fps so egal sind dann frag ich mich wieso du deinen i7 bei 5ghz laufen lässt?
stell doch einfach nur 4ghz ein, dann ist das ding ebenso "nur" etwa 27% langsamer (was dir ja scheinbar egal ist) und verbraucht weniger strom?
 
sTOrM41 schrieb:
wenn dir 27% fps so egal sind dann frag ich mich wieso du deinen i7 bei 5ghz laufen lässt?
stell doch einfach nur 4ghz ein, dann ist das ding ebenso "nur" etwa 27% langsamer (was dir ja scheinbar egal ist) und verbraucht weniger strom?

Bist du jetzt auch schon zu doof zum Lesen?
beim Wechsel von einem AMD FX-8370 auf einen auf 4,4 GHz übertakteten Intel Core i7-4770K um 27 Prozent zulegen kann

Beim Wechsel vom FX-8370 auf einen 4770k@4,4Ghz.
AMD CPUs sind fürs Gaming in der Klasse absolut unbrauchbar! Äpfel und Birnen Maestro!

mfg,
Max
 
berkeley schrieb:
@sTOrM41
Sorry aber COD AW ist nun wirklich kein Vorzeigebeispiel für einen Overheadlimit. Allerhöchstens für ein mies optimiertes Game oder eine sehr starke Zusammenarbeit mit Nvidia, wo in 1440p selbst die Sapphire Fury auf dem Niveau einer 970 NON OC arbeitet...

wir drehen uns hier irgendwie im kreis :D

cod läuft nicht allgemein auf den roten karten schlechter, sondern genau so lange schlechter wie die dinger (dank overhead) im cpu limit hängen.

in 4k ist der overhead dann endlich egal,
und die dinger sind genau so schnell wie das grüne gegenstück
d2yghl8a4zfppeatr.jpg


ich bin nun aber mal weg,
vllt macht computerbase ja irgendwann noch mal einen umfassenden test wie ich ihn vorgeschlagen habe,
dann können wir hier gerne weiter diskutieren :)
 
Zuletzt bearbeitet:
max_1234 schrieb:
Abweichungen von 5-10% bzgl. CPU Skalierung kann man nicht als "ins Limit rennen" bezeichnen, kapier das doch endlich mal.
Nicht nur das, auch wurde dir bereits mehrfach eingetrichtert warum das so ist.

Die Abweichungen betragen zwischen 17 und 40 Prozent.
 
sTOrM41 schrieb:
du verstehst leider diesen overhead nicht,
bist gleichzeitig aber auch zu faul dir den 5 seitigen thread im forumdeluxx durchzulesen.

gta v ist dann wohl auch nen multicore krüppel?
http://pclab.pl/art57777-22.html
http://pclab.pl/art57777-23.html

und advanced warfare auch?
http://pclab.pl/art58906-10.html

und ac unity auch?
http://pclab.pl/art59163-15.html
http://pclab.pl/art59163-16.html

und bf hardline wohl auch?
http://pclab.pl/art62700-10.html
Sicher das du den Begriff verstanden hast?
Der Overhead ist die Differenz zwischen dem was genutzt wird und dem was dabei raus kam, also ein Verlußt. Bei Bandbreiten Fragen ist es z.B. der Anteil der für irgendwelche Protokolle fällig wird.
Jetzt rate mal was in deinem heiß geliebten Link nicht untersucht wurde.

Damit sind Aussagen zum Overhead vollkommen sinnlos denn die geforce hätte beispielsweise einen deutlich höheren Overhead wenn sie 30% schneller wäre aber die CPU doppelt so stark belasten würde.

Zu deinen Spiele Tests....hast du dir die überhaupt mal angesehen und auch verstanden?
Du willst ernsthaft was bei Test Ergebnissen zu einer CPU Limitierung sagen wo die Grafikkarte ins harte GPU Limit rennt?
Ist dir vielleicht auch mal aufgefallen dass mehr als 3-4 Kerne/Threads nahezu keinen Einfluss mehr auf das Ergebnis hatten?
Zwischen den i5 und den i7 Modellen ist idR. abseits der Taktfrequenz Feierabend, bei den FX Modellen bewegt sich bei gleicher Taktfrequenz zwischen dem FX-6 und dem FX-8 nichts mehr, der FX-6 kann sich aber minimal vom FX-4 absetzen.
Da bei den FX Modellen aber die CMT Skalierung zu beachten ist und die Module zuerst mit einem Thread belegt werden landen wir bei dem Verhalten bei einer realen halbwegs sinnvollen Nutzung von 3 Kernen.

Und ja...überall da wo man nicht von allen Kernen/Threads der CPU mit einer Leistungssteigerung profitiert hat man es mit einem Multicore Krüppel zu tuen.
 
in 4k ist der overhead dann endlich egal,
und die dinger sind genau so schnell wie das grüne gegenstück

So leicht ist es aber leider nicht. Wir wissen ja nun alle dass AMD in höheren Auflösungen besser performt. Was man eben nicht sagen kann ist wann was limitiert. Dazu spielen viel zu viel andere Dinge mit rein. Wie läuft das Spiel auf rot grün allgemein? Welche Auflösung kommt welcher Seite zugute? Hängt das Spiel eher am Takt oder an Kernen, welche Settings wurden genutzt und welche davon beanspruchen eher die CPU/GPU ... du kannst mithilfe von den Balken niemals genau sagen wo ein Limit anfängt und das andere aufhört.
 
Zurück
Oben