• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test World of Warcraft: DirectX 12 macht AMD schneller, Nvidia bricht ein

Crifty schrieb:
Man merkt an allen Ecken und Enden das sie es so gut wie möglich versuchen die Engine halbwegs modern zu halten, was jedoch kein verglich ist zu einer Engine wie die in Elder Scrolls Online.

Bei Teso hat man aber nur 20m Sichtweite, während man in wow z.B. von Dalaran aus die kompletten verherrten Inseln überblicken kann...
 
Was mich mal wieder richtig stört hier bei CB ist, dass sich soviele melden mit Kritik bzw. gejammer, die WoW noch nie, bzw. nicht mehr spielen. Wieso muss man seinen Senf dazu geben, wenn man nichts dazu beitragen kann als seine Abneigung gegenüber WoW, Nvidia oder AMD ?

Schon einen Tag voher, wo CB berichtet hat, dass WoW einen neuen Patch bekommt, da war einer der ersten Beitrage echt ein Spruch in der Richtung, "WoW wird noch gespielt ?" !!!

Da wühlt man sich die ganzen Seiten durch um einen sinnvollen, hilfreichen bzw. informativen Beitrag zu finden, und dann kommt der Punkt, wo man einfach keinen Bock mehr hat die Gülle zu lesen. Das betrifft nicht nur dieses Thema, das ist bei fast allen Themen so, CB ist nicht mehr das, was es mal war.

Und bevor jetzt jemand mich anmacht wegen sinnfreien Beiträgen, auf Seite 3 habe ich schon meinen Beitrag geleistet, und wiederhole mich gerne bzw. ergänze es nochmal : Ich habe auf zwei Rechnern mit einem FX8350 @4,4 GHz mit einer GTX 1050ti und einer RX 480, jeweils eine Leistungssteigerung festgestellt, unsere genutzen Addons sind alle auf dem Stand von 8.0.1. Ich habe in keiner Situation seit Mittwoch irgendein Leistungsverlust bemerkt. Ich bin sowieso darin recht liberal eingestellt, aber mein Frauchen ist da echt eine kleine Nervensäge, und von ihr kam nichts ... und das hat für mich schon was zu bedeuten. Kein gejammer == keine Probleme !
 
  • Gefällt mir
Reaktionen: Rockstar85, Ginmarr, DireWolf und 9 andere
DX12 ist doch nur Marketing geblubber von Microsoft um Win10 zu pushen... kaum ein Entwickler setzt auf DX12 (zum glück) und jeder der nur halbwegs ahnung im PC bereich hat, weiß das Vulcan die bessere Lösung darstellt... nicht nur wegen bessere Performance sondern auch das alle Betriebssysteme unterstützt werden.

LowLevelAPI gerne, aber wenn schon dann auch gleich richtig. Blizzard öded mich eh nur noch an mit ihren casual games aber jetzt haben sie auch auf Technischer ebene versagt.
 
Zuletzt bearbeitet von einem Moderator:
läuft auf meiner Kiste bisher problemlos, Vergleich zu pre-Patch allerdings schwierig da die Grafiksettings zurückgesetzt wurden und ich sie mir nicht genau gemerkt habe :-)

Bezüglich Fenstermodus auch keine Probleme.
 
Cool Master schrieb:
Wie wurde getestet? Einfach nur der Flug-Benchmark? Wenn ja ist das relativ nicht aussagend da selbst ein High End Rechner im Raid einbricht wenn 25 Leute gleichzeitig auf ein Mob hauen.
Feranor schrieb:
Leider wie befürchtet ein realitätsfremder Benchmark. Ein i7-8700K soll nur 6% schneller sein als ein R7 2700X? Im Mythic Raid habe ich 20 FPS bei Varimathras (R7 1700 @3,9GHz, CL14 3066 RAM, Vega 64) auf den niedrigsten Einstellungen; ein Mitspieler hat 50 FPS mit einem i5-3570K @Stock (GTX 570, CL18 2133 RAM) auf Settings 5.
mensch183 schrieb:
2. Die FPS-Zahlen des Tests sagen mir, dass nicht im Raid getestet wurde. _DAS_ wäre die wirklich interessante Stelle. Die FPS beim Questen oder Rumstehen in einer Stadt sind unwichtig. Im Raid ist man am CPU-Limit. Die Grafik ist trotzdem wichtig, weil nur was der Grafiktreiber nicht an Rechenleistung vertüdelt, fürs Spiel zur Verfügung steht.
wie im text steht - gut das ihr ihn gelesen habt - wurde nicht im raid getestet, da es nicht 1:1 reproduzierbar ist.
man merke: für einen cpu/gpu übergreifenden test (vor allem für die ganzen kommastellenfuchser hier) sollte der test jederzeit 1:1 wiederholbar sein. sollte eigentlich jedem klar sein.
das ist in einem raid nicht der fall.
1. bekommt man eine ID und kann es schon allein deswegen nicht wiederholen, außer man wechselt den char/klasse
2. bekommt man nie die selbe gruppe/Konstellation zusammen
3. hat jeder etwas andere addons/diverse Klassen erfordern andere addons
4. haben diverse Klassen unterschiedliche aufgaben und stehen deswegen woanders und haben dadurch mehr oder weniger (durchschnitts)fps

man könnte den char höchstens zur prime time ans AH stellen. ist aber auch nicht wirklich 1:1 über einen längeren Zeitraum reproduzierbar.

Feranor ist hier auch ein sehr gutes Beispiel. er hat mit einem besseren rechner schlechtere fps als ein Mitstreiter. Feranor hätte im LFR auch doppelt bis dreimal soviel fps.

edit: man könnte x-mal an einem Boss wipen, glaub aber nicht das das alle für einen DX12 test mitmachen würden ;)
(sind ja auch pausen dazwischen für hardwarewechsel)
 
Zuletzt bearbeitet:
Ned Flanders schrieb:
der zwar 2 € weniger fürs Spiel bezahlt (hypothetischer Weise), dafür 150 Euro mehr für ständige Hardware Upgrades.

Und? Dann wird eben das Spiel 10 € teuerer weil die Arbeit die der Hardwarehersteller nicht mehr macht jetzt der Spieleentwickler machen muss. Und wenn sich die Spielepreise nicht durchsetzen lassen, werden halt die Spiele zusammengestrichen.

BTW: Niemand muss 150 Euro mehr für ständige Hardwareupgrades ausgeben. Am PC hat man Einstellregler mit denen man die grafische Opulenz an seine Hardware anpassen kann. Viel wichtiger als Schnittstellen, Treiber und Megahertz bei der Hardware wäre es, wenn die Leute diese Regler endlich mal dazu verwenden würden wozu sie da sind. Traurigerweise scheinen das bisher nur die Casualspieler hinzukriegen. Die kommen dann auch 10 Jahre mit einem Spiele-PC aus. Ohne Aufzurüsten.
 
  • Gefällt mir
Reaktionen: valnar77
Fassen wir doch mal den Grundtenor hier zusammen, der im Forum herrscht:
DX12 ist nutzlos, Marketing-Geblubber, nur da, um Win10 zu pushen

Interessanterweise hat JEDER, der das schreibt, eine Nvidia-Karte, die doch den AMD-Karten so überlegen ist, aber eben nur in DX11. Das können sie und da wird Nvidia bis zum Erbrechen dabei bleiben und jedem einreden, dass alles Andere vollkommen nutzlos ist.
 
  • Gefällt mir
Reaktionen: valnar77 und smart-
  • Gefällt mir
Reaktionen: Sester, FlohaufHund und cruse
Hilzerak schrieb:
Genau das haben sie auch so angekündigt mit dem Fullscreen?!

und wo? ich habe keine Ankündigung gelesen, das es z.b. keine 2560x14400p Auflösung mehr geben soll. ich kann diese Auflösung aber nicht wählen, da in den Einstellungen nur krumme scalierungen drin sind^^
 
R00tMaster schrieb:
Also wenn man feststellt das der eigtl. Standard offenbar (Massiv) Leistung kostet und man mit einer anderen Art/Programmierung an (Massiv) Leistung gewinnt, dann hat man mMn. den Standard anzupassen bzw. zu ändern.

DX11 Standard - frisst Leistung

DX12 Standard - frisst Entwicklerressourcen :P
 
Wer es noch nicht kapiert hat...
Nvidia kommt auf den llvl renderpfaden nicht klar. Die art wie calls erzeugt werden widerspricht hier der philosophie der architektur. Dazu kommt noch, dass dx 12 vor allem dann etwas bringt, wenn der cpu overhead groß wird. Amd ist von beidem stark betroffen und zweiteres greift verstärkt bei leistungsschwachen prozessoren. Daher ist dx12 nicht per se scheiße, sondern in speziellen bereichen (low fps) deutlich besser und auf schnellen Systemen nur gleich gut. Nvidia hat dazu eben das problem, dass die callerzeugung in dx11 vom treiber gemanagt wird und nicht von der hardware, also gegenteilig zu amd, die diesen weg in dx11 nicht gehen können.
 
  • Gefällt mir
Reaktionen: Iscaran
cruse schrieb:
für einen cpu/gpu übergreifenden test (vor allem für die ganzen kommastellenfuchser hier) sollte der test jederzeit 1:1 wiederholbar sein. sollte eigentlich jedem klar sein.

Prinzipiell richtig, aber ich hätte lieber nützliche und leicht ungenaue Zahlen, als exakte Zahlen, die kaum eine Aussagekraft haben. Das ist in etwa so, als würde ich den Spritverbrauch eines Autos nur auf dem leeren Baumarktparkplatz testen, weil ich eine Autobahnfahrt nicht exakt reproduzieren kann.
 
  • Gefällt mir
Reaktionen: Galatian und Iscaran
Hägar Horrible schrieb:
Interessanterweise hat JEDER, der das schreibt, eine Nvidia-Karte, die doch den AMD-Karten so überlegen ist, aber eben nur in DX11. Das können sie und da wird Nvidia bis zum Erbrechen dabei bleiben und jedem einreden, dass alles Andere vollkommen nutzlos ist.

Auch als jemand mit AMD Graka sollt man eher gegen DX12 sein. Wenn eine Low Level API genutzt werden soll, dann ist es Vulkan. Aber definitiv nicht DX12. Der extrem geringe Mehrwert von DX12 wiegt nicht den höheren Entwicklungsaufwand auf. Bei Vulkan bekommt man für den Aufwand weit mehr Vorteile.
 
  • Gefällt mir
Reaktionen: m.Kobold
Sigon schrieb:
SLI oder CF bringt doch schon länger keinen echten Nutzen mehr?!

War am Ende wohl doch gar nicht so schlecht dass ich Freesync-Monitore zu meiner derzeitigen GTX gekauft habe? Mal schaun wohin die Entwicklung mittelfristig geht - bisher hatten GTXe bei vergleichbarem Stromverbrauch halt immer noch deutlich mehr fps als Radeons.

Des Thema SLI ist dort etwas umstritten ich weiss allerdings muss ich sagen das ich auf einen 144hz Monitor Spiele und wen SLI unterstützt wird bringt es doch einige fps mehr, zum Stromverbrauch naja der ist teilweise besser als so manche AMD karten im Einzelbetrieb trozdem gebe ich dir schon recht SLI ist und bleibt nur fur absolute enthusiasten
 
Steini1990 schrieb:
Auch als jemand mit AMD Graka sollt man eher gegen DX12 sein. Wenn eine Low Level API genutzt werden soll, dann ist es Vulkan. Aber definitiv nicht DX12. Der extrem geringe Mehrwert von DX12 wiegt nicht den höheren Entwicklungsaufwand auf. Bei Vulkan bekommt man für den Aufwand weit mehr Vorteile.
Naja. Aber MS wird alles dafür tun, dass DX12 in den Spielen benutzt wird statt Vulkan. Das ist im Prinzip fast das einzige, was die Gamer bei Windows hält. Vulkan wird nämlich auch unter Linux voll unterstützt und sobald die Spielehersteller darauf umschwenken würden, gäbe es eine riesengroße Hürde weniger, um Spiele unter Linux "richtig" zum laufen zu bringen. Und ja ich weiß, dass jede Menge Spiele schon unter Linux laufen, aber ihr wisst wie ich das meine ;)
 
lyniv schrieb:
Einmal draufklicken auf die Taskleiste und dann wieder aufs Spiel-Icon - sollte das Problem lösen. @LieberNetterFlo

Zorror schrieb:
Wenn der Tipp von @lyniv nicht hilft, kannst du mal versuchen in den Task-Manager zu gehen, Rechtsklick auf den Windows Explorer und dann "Neu starten" auswählen.

der erste Tipp hat funktioniert ... musste nur ein paar mal Links und Rechts auf der Taskleiste und den Icons rumklicken ... irgendwann hats funktioniert :)
 
Halten wir fest:

Das zeigt sich auch in den Benchmarks. Die Performance fällt gar deutlich niedriger aus, besser aussehen tut WoW aber nicht.

Die zweite Auffälligkeit: Auch nach der Änderung sind Nvidia-Grafikkarten, obwohl diese in DirectX 12 langsamer sind, immer noch klar schneller als die Pendants aus dem Hause AMD, unabhängig davon, welche API diese nutzen. Die Unterschiede scheinen mit dem Patch weder größer, noch kleiner geworden zu sein.

Wo fällt denn die Performance niedriger aus ? Nur bei nVidia in DX12...der frühere Test war sowohl eine andere Testsequenz als auch andere Auflösung settings...also komplett unvergleichbar.

CB bleibt den Beweis schuldig dass das Game vor dem Patch besser lief als nachher (allgemein).
Wo ist dazu ein "Testwert" zu sehen ? Nirgends.

CB behauptet nVidia sei immernoch egal welche API schneller als AMD, die Benchmarks zeigen es genau nicht so. In DX12 ist Vega64 schneller als die 1080 in DX12...

Es wäre schön wenn CB endlich mal die mittlere CPU-Auslastung über die Testsequenz mit angeben würde. Gerne noch separiert über die Einzelnen Threads....
Wenn man dann ein bild sieht wie das hier:
API: avg CPU1, 2, 3, 4, usw.
DX11: 95%, 25%, 1%, 1%, usw. (Gesamtmittelwert ~30%)
DX12: 50%, 25%, 25%, 0% usw...(Gesamtmittelwert ~25%)

Dann hätte man wenigstens schön den Nutzen von DX12 gesehen/Zeigen können.
So ist der Test hier ist leider teilweise nutzlos und teilweise widerspricht CB sich sogar selbst bzw. den eigenen Messwerten.

Generell muss man die Situation halt so sehen - die Nutzung von DX12 hat vor allem den Vorteil dass man eigentlich DEUTLICH weggehen kann vom Main-Render-Thread Limit. Allerdings nur wenn man auch das Softwarestück komplette auf DX12 umstellt und nicht nur einen DX11=>DX12 Wrapper drüberzieht.

1.) DX12 ist eingeführt worden damit man "leichter" Multithreaden kann per se. Die DX12 "Architektur" ermöglicht es endlich von der Konsequenz der Nutzung eines "Main Render Threads" wegzugehen. Etwas das Entwickler sich gewünscht haben und wie wir sehen sogar für URALT-Engines sogar noch den Schritt mitgehen ! Auch wenn es gedauert hat.

Dies ist ein erforderlicher Schritt um Games entwickeln zu können die
a) besser mit der Zahl der CPU-Kerne skalieren
b) eben nicht mehr nur an einem "main-Render-Thread" hängen was uns letztlich in der Konsequenz eigentlich zu
c) führt. Der Möglichkeit nun DEUTLICH komplexere Szenen zu erstellen mit gleichzeitig insgesamt niedrigerer CPU Last (UND deutlich besserer Last-Verteilung der CPU last)

Das ergibt dann in Konsequenz:
2.) nVidia verliert FPS in DX12 da die Hardware beim Scheduling "spackt" und deswegen vermehrt Microruckler die Frametimes und auch die AVG versauen. Der Treiber wiederum kann in DX12 kann das scheduling nicht mehr leisten da das von der API her nicht mehr so vorgesehen ist (was man ja gemacht hat um von dem "Main Render Thread" wegzukommen.
In DX11 hingegen ist die "Variable" Software-Treiber scheduling Lösung von nVidia ein Vorteil denn hier kann man "ein gewisses" Maß an Multi-threading Fähigkeit damit auf jedes Spiel hinoptimieren. Aber letztlich eigentlich unsinnig dass man für jedes Game extra die Treiber hinfrickelt...
Aber gut nVidia will das ja so - man hat so mehr Macht und Kontrolle über die Developer.

Letztlich ergibt sich aber ganz logisch hier auch:
3.) AMD ist dankbar dass DX12 kommt. Das GPU Scheduling wird nun nicht mehr von Main Render thread ausgebremst. Zudem hat AMD auch noch generell ein gewisses CPU Overhead (relativ zu nVidia) seit der GCN-Architektur in DX11. Dies führte vor allem dazu dass viel Rohleistung der GCN-Arch einfach liegen blieb. Vor allem eben in Fällen wo man in das Main-Thread limit gelaufen ist.
In DX12 ist das Geschichte und die GPUs liefern an solchen stellen mehr FPS oder laufen zumindest genauso gut wie vorher.
 
  • Gefällt mir
Reaktionen: m0ntus
So wie ich das verstanden habe bringt DX12 vor allem im CPU Limit Vorteile. Daher verstehe ich nicht wieso für den Benchmark scheinbar eine Parcours gewählt wurde, bei dem kein CPU Limit vorliegt.
Man hätte das Ganze in Suramar anfertigen sollen, da gehen selbst die stärksten CPUs in die Knie.
 
  • Gefällt mir
Reaktionen: BOBderBAGGER und cruse
Zurück
Oben