Test Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an

@EXTREM
Danke für die Antwort!

Dann ist es ziemlich sinnbefreit diese Karte in einen solchen Vergleich auf zu nehmen
 
UltraWurst schrieb:
Ja, aber daran sind sie doch selbst schuld oder nicht?
AMD hat eben eine Architektur entwickelt, die unter den gegebenen Bedingungen nicht wirklich effizient war.
Warum die das gemacht haben, weiß ich nicht. Aber ganz sicher nicht, um erst Jahre später Mantle zu entwickeln bzw. von DX12 zu profitieren, um bis dahin dramatisch viel Marktanteile abzugeben.

Nun, die Entwicklung von GCN und Mantle verlief mehr oder weniger Hand in Hand. Mantle wurde etwas später erst veröffentlicht, aber ich gehe davon aus, dass die Entwicklung gegenseitig aufeinander abgestimmt war.
AMD hat meines Erachtens insgesamt weiter gedacht. Die GCN-Architektur kommt auch in den APUs zum Einsatz. Vor allem dort ist AMD auf die Entlastung der CPU angewiesen, sonst bringt die stärkere GPU als Vorteil gegenüber Intel nichts. Außerdem ist HSA ein wichtiges Konzept für AMD. Eine hohe Rohleistung der GPUs für generelle Rechenzwecke ist dabei auch von Vorteil. Deshalb wahrscheinlich die hohe Double-Precision-Leistung. Wie jeder weiß, sind die FPUs bei den Bulldozer-basierten Prozessoren nur einmal pro Modul vorhanden und damit potenziell ein Flaschenhals.
Auf dem Papier macht das schon alles Sinn, wenn man mal darüber nachdenkt. Bisher ist er noch nicht ganz aufgegangen, aber gerade DX12 könnte das ändern.
 
"Microsoft will eigentlich kein deaktiviertes VSync mehr zulassen" Die Spinnen die jetzt total oder was?
 
@Web-Schecki
Wenn's wirklich so gewesen sein sollen, dann AMD's Weitsicht in allen Ehren.
Ob sich das wirtschaftlich am Ende rechnet, wage ich allerdings noch zu bezweifeln.
Ich würde sagen, da war das Timing nicht so optimal.

@Ex3cuter
Also ich bin ja immer dafür, dem Nutzer so viele Optionen wie möglich zu lassen, aber wieso sollte jemand ohne VSync (bzw. GSync/Freesync) spielen wollen?
 
Wäre DX12 nur ein paar Jahre früher gekommen, was wäre das (nach dem derzeitigen Stand und auch nur in vereinzelnten Spielen) für ein schöner Konkurrenzkampf zwischen Intel und AMD geworden!
Die Rohleistung eines AMD konnte man in den letzten Generationen immer mit einem bulligen sprittfressenden Amischlitten vergleichen, wenn da nicht die etwas andere Technik/aufbau der CPU gewesen wäre, die ohne ein ordentliches Grundgerüst an Software keine sonderlich guten Ergebnisse abgeliefert hat...
 
UltraWurst schrieb:
@Ex3cuter
Also ich bin ja immer dafür, dem Nutzer so viele Optionen wie möglich zu lassen, aber wieso sollte jemand ohne VSync (bzw. GSync/Freesync) spielen wollen?

weil vsync bei 60hz inputlag verursacht. seitdem ich einen 144 hz monitor habe, kann ich vsync aktivieren, ohne dass die maus spürbar nachzieht, aber dank 144 hz gibts auch weniger tearing, da geht dann der vorteil von vsync schonwieder flöten.
 
JJJT schrieb:
@EXTREM
Danke für die Antwort!

Dann ist es ziemlich sinnbefreit diese Karte in einen solchen Vergleich auf zu nehmen
Nur, dass die Antwort schlichtweg falsch ist. Wisst ihr eigentlich ansatzweise, wie Grafikprogrammierung funktioniert? Da wird nichts auf die CPU ausgelagert, wenn ein Feature nicht da ist, ist es nicht da. Ab davon hat die 280 ja auch keine Probleme, ohwohl es dieselbe GCN-Generation ist.

Aber ja, der riesige Unterschied zu Dx11 auf der Karte ist merkwürdig, da stimme ich dir zu.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
persönliche Meinung. 16/14nm Modelle abwarten. Da wird neu gewürfelt. Ergo Sommer. Im Zweifelsfall und eines ausgeglichenen Marktes willen eher Pro AMD.



denke das is eher Nebeneffekt von wenigen Tagen Testzeit (DX12 nur 1 Tag) und eben 2 API = doppelte Arbeit.

Dazu kam in letzter Zeit recht viel spitz auf knapp, the Division, neue Treiber, Tomb Raider will sicher auch noch DX12 getestet werden, viel Arbeit.
Hier schon mal ein erster Vorgeschmack:http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/38457-rise-of-the-tomb-raider-unter-directx-12-und-mit-vxao-amd-und-nvidia-verlieren-leistung.html
 
Was ich mich frage ist warum unter dx11 eine gtx 970 so langsam ist im Vergleich zu den 390ern mit dx11

Ansonsten würde mich interessieren ob dx12 auch die Grafik Qualität verbessert oder hauptsächlich die Performance
 
@uwei:
Bei Hardwareluxx ist offensichtlich was beim Testen schiefgelaufen oder die DX12 implementierung ist einfach kaputt. Dort ist DX12 ja generell viel langsamer als DX11.
 
Zuletzt bearbeitet:
Denke da passt schon alles beim Hardwareluxx Test. Kommt halt auf das Spiel an. DX 12 ist eben noch sehr neu und unausgereift. Braucht eben seine zeit bis das immer und überall anständig läuft.

Sieht man ja auch am PC-Gameshardware Test mit DX12 bei Hitman. Hier im Gegensatz zum CB-Test ist die 980 TI auch in DX12 je nach Auflösung auch wieder vor der Fury und auch der R9 390X. ;)

Würde mich da also nicht auf einen einzigen Test versteifen und erstmal abwarten was neuere Treiber und die zeit noch alles so mit sich bringt. Bin jedenfalls gespannt. Zumindest erkennt man das es für Nvidia nicht ganz so gut aussieht wie für AMD. Für uns kann es ja nur gut sein,... Mehr Speed umsonst und die Grünen stehen wenigstens mal etwas unter Druck! :D
 
Zuletzt bearbeitet:
Also scheint so als könnte ich auf win7 mit meiner 970 bleiben. Passt doch. Vsync hab ich nie an. 144hz full hd und nichr höchste details dann hat man auch mehr fps. Weiß schon warum ich mich bewusst für die 970 entschieden habe. Dx12 kann ich locker überspringen.
 
Wenn DX12 schwachen Prozessoren so auf die Sprünge hilft, gibt es ja noch weniger Grund, aufzurüsten. Wird es mein Phenom II X4 wohl doch noch weiter machen. ;)
 
Azuro schrieb:
AMD hätte sich auf denn Kopf stellen können und trotzdem wäre, dank Microsoft DirectX 11, keine bessere Performance zu erreichen gewesen.

Mit welcher Begründung? Warum sollte AMD nicht schaffen, was Nvidia geschafft hat?
Ergänzung ()

Garrus83 schrieb:
Jetzt ist AMD also Schuld an Gameworks? Es sollte inzwischen klar sein, dass Nvidia gezielt Sabotage betrieben hat.

Hat mit Gameworks überhaupt nichts zu tun.
Ergänzung ()

sverebom schrieb:
Dass AMD jahrelang zu dusselig gewesen ist bessere Treiber zu entwickeln, oder dass das Zusammenspiel aus und vorhandener API zumindestens nicht gerade vorteilhaft für eine bessere Treiber-Performance gewesen ist? Ich halte Letzteres für wahrscheinlicher. Unterschiedliche Chip-Architekturen und APIs haben nun einmal unterschiedliche Stärken und Schwächen.

Dann hätte AMD bei der GPU-Architektur Mist gebaut, denn eine GPU, die unter DX12 hervorrangend performt muss ja nicht unter DX11 zwangsweise langsamer sein. Es lassen sich übrigens sämtliche neuen HW-Features (also auch die Feature-Level 12_0 und 12_1) unter DX11 nutzen.

https://msdn.microsoft.com/en-us/library/windows/desktop/ff476876(v=vs.85).aspx
Ergänzung ()

Web-Schecki schrieb:
Nun, die Entwicklung von GCN und Mantle verlief mehr oder weniger Hand in Hand. Mantle wurde etwas später erst veröffentlicht, aber ich gehe davon aus, dass die Entwicklung gegenseitig aufeinander abgestimmt war.

Zwischen dem Erscheinen der HD 7xxx und Mantle liegen zwei Jahre, es ist also davon auszugehen, dass Mantle bzw. DX12 erst nachträglich auf die HW angepasst wurde.
Ergänzung ()

tx8090 schrieb:
Ansonsten würde mich interessieren ob dx12 auch die Grafik Qualität verbessert oder hauptsächlich die Performance

Eigentlich nur die Performance unter bestimmten Bedingungen (z.B. viele Draw-Calls). Alle grafischen Effekte sind auch unter DX11 möglich.
 
Zuletzt bearbeitet:
Gargamehl schrieb:
@uwei:
Bei Hardwareluxx ist offensichtlich was beim Testen schiefgelaufen oder die DX12 implementierung ist einfach kaputt. Dort ist DX12 ja generell viel langsamer als DX11.
Da ist wohl nichts schiefgelaufen. Spiel mit einer sehr schwachen CPU oder bei niedrigster Qualität und niedriger Auflösung(z.B. 800x600). Dann geht DX12 in Tomb Raider anscheinend ab wie Schmidt's Katze und zeigt DX11 den Stinkefinger. Nicht umsonst erhält man da momentan eine Warnung über "mögliche Performanceeinbrüche", wenn man DX12 aktiviert.
Ich bezweifle aber, dass ich mich für Zocken auf dem Niveau begeistern könnte. ;)
Mal paar Patches, Treiber oder paar Jahre abwarten. Das wird bestimmt noch irgendwann mal was mit DX12 werden.
 
Gargamehl schrieb:
@uwei:
Bei Hardwareluxx ist offensichtlich was beim Testen schiefgelaufen oder die DX12 implementierung ist einfach kaputt. Dort ist DX12 ja generell viel langsamer als DX11.

VAN DOOM schrieb:
Denke da passt schon alles beim Hardwareluxx Test. Kommt halt auf das Spiel an. DX 12 ist eben noch sehr neu und unausgereift. Braucht eben seine zeit bis das immer und überall anständig läuft.

ich denke bei DX12 verhält sich das so:

Starke CPU in Verbindung mit DX11 sind einfach lange optimiert, zudem kann es sein dass bei DX12 die Max Frames kleiner ausfallen, die Min Frames aber besser, die Benchmarks also täuschen. In diesem Fall kann DX12 vielleicht das bessere Spielerlebnis bieten, was aber im Benchmark so nicht rüberkommt.

Würde man statt der starken CPU eine Low End CPU hernehmen, dreht sich das Bild. Dann punktet DX12 durch die Entlastung der CPU. Im Prinzip bedeutet ja auch eine Entlastung der CPU eine weitere Belastung der GPU, ergo hat man erstmal weniger Ressourcen übrig. Das kann sowohl vorteilhaft als auch nachteilig sein.

Mag sein dass der "Dynamic Range" der FPS in DX12 deutlich ausgeglichener ist, also bringt es was in extrem CPU Lastigen Szenen wenn bisherige DX11 Implementationen einbrechen. So Szenen gibts in Tomb Raider genug, nur kommen die nicht wirklich in den Benchmarks raus. Da wäre es dann interessant ob DX12 den entscheidenden Vorteil bietet.
 
Zuletzt bearbeitet:
Ich lese hier ständig, dass DX12 schwache CPU's befeuert...
Der FX profitiert doch vor allem von seinen 6-8 Kernen, die neuerdings von DX benutzt werden können und nicht nur vom niedrigeren Overhead.
Der FX wäre, bei stark parallelisierten Anwendungen ja auch keine sooo schwache CPU. Nur SingleCorePerf ist Müll.
Oder lieg ich da falsch?
 
UltraWurst schrieb:
@Ex3cuter
Also ich bin ja immer dafür, dem Nutzer so viele Optionen wie möglich zu lassen, aber wieso sollte jemand ohne VSync (bzw. GSync/Freesync) spielen wollen?

Was soll das für ein Begründung sein? Ich habe mir erst jetzt einen 3440x1440 Monitor ohne Freesync oder G-sync gekauft, nicht jeder wird so eine Technick im Monitor haben, wieso will mir jetzt MS Vsync on aufzwingen? Ich nehme Tearing nicht wirklich war, bzw. stört es mich nicht so sehr.
 
UltraWurst schrieb:
@Web-Schecki
Wenn's wirklich so gewesen sein sollen, dann AMD's Weitsicht in allen Ehren.
Ob sich das wirtschaftlich am Ende rechnet, wage ich allerdings noch zu bezweifeln.
Ich würde sagen, da war das Timing nicht so optimal.

kisser schrieb:
Dann hätte AMD bei der GPU-Architektur Mist gebaut, denn eine GPU, die unter DX12 hervorrangend performt muss ja nicht unter DX11 zwangsweise langsamer sein. Es lassen sich übrigens sämtliche neuen HW-Features (also auch die Feature-Level 12_0 und 12_1) unter DX11 nutzen.

Ich denke dass AMD sich einfach strategisch verzettelt hat, zumindest was den PC-Markt angeht. Im Konsolenmarkt war und ist AMD ja sehr erfolgreich. Möglicherweise hat AMD erwartet, dass sich der PC-Markt viel näher am Konsolen-Markt orientieren und sich Low-Level-APIs früher durchsetzen würden. Entsprechend wurde die Hardware-Architektur entworfen. Aber dann ist es anders gekommen als erwartet, und AMD stand da mit einer Architektur, die den Anforderungen des PC-Marktes nicht so gerecht werden konnte wie das Konkurrenzprodukt von Nvidia. Anders ausgedrückt: AMD hat das richtige Produkt zur falschen Zeit entwickelt. Die Ingenieure hätten demnach nicht versagt, weder was die Hardware noch was die Software angeht. Eine Markt-strategische Fehlentscheidung, die AMD durch die DX11-Ära hindurch viele Marktanteile gekostet hat.

Von einer Weitsicht möchte ich da nicht reden. Es kann ja nicht gewollt gewesen sein, dass AMD im PC-Markt so dermaßen unter die Räder kommt. Aber in den letzten zwei bis drei Jahren hat man eine gute Marktpolitik betrieben, um schließlich doch noch APIs zum Durchbruch zu verhelfen, die der AMD-Hardware deutlich besser schmecken. Im Gegenzug hat NVidia zwar bei der Weichenstellung für DX11 alles richtig gemacht, von der Marktpolitik über die Hardware-Entwicklung bis hin zu den Treibern, ist aber jetzt schlechter aufgestellt für den Zeichenwechsel, der mit DX12 kommen wird. Und natürlich bemüht sich nun NVidia, politisch die Entwicklung des Marktes in eine andere Richtung zu lenken, die den eigenen Produkten eher entgegen kommt.
 
Zurück
Oben