• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forza 7 Benchmark: Vega hat mehr Benzin im Blut als Pascal

Limit schrieb:
Kann sein, dass ich das falsch verstanden habe, aber afaik konnte Maxwell das nur rein logisch, sprich man kann entsprechende commands zwar parallel absetzen, intern muss weiterhin ein Kontextwechsel vorgenommen werden um zwischen Compute und Graphics Tasks hin- und herzuwechseln.
Jaein. Eigentlich muss ein Kontextwechsel nur auf GCN Architekturen durchgeführt werden.
NVidia versucht das ganze weiterhin über die SMs aufzuteilen. Kontext switches werden nur gemacht wenn sie wirklich nötig sind.
Knackpunkt ist, dass NVidia keinen Kontext Cache hat wie AMD. Daher muss für einen Kontextwechsel jedes mal über den externen Hauptspeicher der Grafikkarte gegangen werden. Das kostet Zeit. Dementsprechend versucht man das Kontextwechseln beim Scheduling möglichst zu vermeiden, vornehmlich dadurch, dass man Compute und Graphics Tasks zwischen den SMs aufteilt. Neu mit Pascal ist, dass der Scheduler auch dynamisch darauf reagiert, wenn ein Task früher fertig wird.
Der Grund weshalb NVidia hier einen anderen Ansatz fährt dürfte wohl darin liegen, dass die Grafik Komponenten etwas anders verteilt sind als bei AMD und dementsprechend auch der Zugriff und die Lastverteilung bei den einzelnen ALUs anders ausfällt.

Ich denke eine relativ umfangreiche Erklärung und einen Vergleich für das Vorgehen der jeweiligen Architekturen gibt es hier:
https://www.reddit.com/r/nvidia/comments/50dqd5/demystifying_asynchronous_compute/

Der entscheidende Absatz für den Vergleich beider Ansätze dürfte der hier sein.
So if we stop using the term asynchronous compute and focus on multi-engine all our lives would be much more pleasant, DX12 only requires you to have those "engines" and their queues exposed. It places no requirements whatsoever on how the independent command streams are executed; "Async Shaders" and "Dynamic Load Balancing" are just marketing terms used to introduce new features I guess, and frankly it's unusual for such a profoundly architecture-intimate feature to be propelled to the forefront of a marketing campaign.
GCN has one geometry engine and one rasterizer in each Shader Engine (usually 9 CUs). NVIDIA employs a geometry engine per SM and rasterizers shared by all SMs in a GPC ( 4 or 5). The balance of resources is radically different.
Das würde ich so in etwa auch unterschreiben.
 
Jaein. Eigentlich muss ein Kontextwechsel nur auf GCN Architekturen durchgeführt werden.
NVidia versucht das ganze weiterhin über die SMs aufzuteilen. Kontext switches werden nur gemacht wenn sie wirklich nötig sind.
Knackpunkt ist, dass NVidia keinen Kontext Cache hat wie AMD.

Ja das stimmt. So gesehen muss AMD einen Context Switch machen mit jedem Compute->Graphics wechsel. Aber der kostet bei AMD quasi keine Zeit. Da sie bei jedem Arbeitsschritt auf jedem Shader diesen Wechsel durchziehen können und die Arbeitsverteilung der multi-thread queues durch den Hardware-Scheduler ebenfalls einfach immer den "nächsten" freien ansteuert.

Bei nvidia kostet der Switch eben massiv Zeit - da der gesamte SM-Queue erstmal zurück in den Speicher muss.
Aber das Pascal mittlerweile auch "partiell" Teile der SMs wieder allozieren kann war mir so nicht klar. Das erklärt natürlich warum man bei "parallelem" arbeiten mit multi-queue listen (Stichwort DX12) zumindest keine Leistung mehr verliert relativ zu Maxwell2.0 und früheren Archs.

Btw. Danke für den Reddit link ! Der ist wirklich empfehlenswert.
 
kisser schrieb:
Doch. Kannst du ja selbst nachlesen. Multithreading war eine der Neuerungen von DX11.

Und doch knallt es alles mit nem main Thread zu an dem dann alles hängen bleibt. Sowas aber auch.
Ist ja schön das die sowas rein schreiben aber da es sich nicht in der Praxis wiederspiegelt kann es natürlich auch für das gesammte DirectX Paket gelten (audio und video auf getrennten Kernen berechen, schon doll sowas) oder auch einfach nur bedeuten das dennoch alles an einem hängt und nur ein paar Nebenaufgaben auf andere Kerne ausgelagert werden können die letztendlich aber nicht entscheidend für die Performance sind.
Das heißt letztendlich nichts anderes als das mehr als ein Kern genutzt werden kann, hat aber 0 Relevanz für die effiziente Nutzung.
 
Es sieht dem Vorabtest von PCGH nach zu urteilen so aus, also ob die RX Vega sich - wie erwartet, in Anlehnung and Battlefield 1 - auch recht passabel (Vega 56 klar vor GTX 1070 OC, insbesondere bei den min fps; Vega 64 (wassergekühlt) deutlich vor GTX 1080OC) in Star Wars Battlefront 2 schlagen gegenüber der nVidia Konkurrenz, wenn auch deutlich weniger überlegen/herausragend als noch bei Forza 7 Motorsport.

Erstaunlich ist an den dortigen Ergebnissen aber auch, wie gut die R9 Fury X noch mit der Frostbite Engine zurecht kommt und wie gering der Leistungszuwachs bei RX Vega ist, wenn man sich die Taktung anschaut, so gesehen scheint Fiji besser optimiert auf die Frostbite Engine als RX Vega und das erstaunt schon angesichts dessen, dass Fiji schon ein wenig betagt ist mittlerweile (und EA/Dice da wohl nicht großartig viel verändert haben seitdem).

Da erscheint mir Turn10/MS schon vorbildlicher und moderner/zukunftszugewandter (nicht nur wegen DX12), was die Engine/Programmierung angeht als die vielgelobte Frostbite Engine von EA/Dice, wenn man sieht wie viel besser die neue Vega/derzeit modernste (Gaming-)GPU Architektur bei Forza Motorsport 7 genutzt/angesprochen wird.

Naja, 'mal abwarten wie es bei den kommenden Bethesda Spielen und Far Cry 5 (trotz Ubisoft) aussehen wird ...
 
Zuletzt bearbeitet:
Damit liegt meine Vega56 wohl in Battlefront 2 auch knapp vor einer übertakteten 1080, da sie so wie sie jetzt eingestellt ist, ziemlich genau die Leistung der Vega64 Liquid im dortigen Test hat, ca 3% darunter^^
 
Irrelevant, da das keinen Einfluss auf die Performance haben soll.

"Der Verdacht, dass es sich um eine neue Performance-Optimierung handele, wird beim Blick auf die Fps-Werte entkräftet: In unserer Stichprobe mit dem Hexer Geralt läuft die Radeon Software nicht besser als die fehlerfrei filternde Version 17.9.1 - im Gegenteil, der "alte" Treiber erzielt sogar etwas bessere Bildraten. Die Tatsache, dass auch der HQ-Modus unter den Filterproblemen leidet, spricht ebenfalls gegen die Idee einer versteckten Optimierung, denn hier hat AMD bisher mit nativer Filterung geworben, ergo der Qualität, welche die Textureinheiten bestenfalls und ohne Befehle durch den Treiber erzielen." (Quelle: http://www.pcgameshardware.de/Radeo.../Texturfilter-Bug-in-Radeon-Software-1240201/ )
 
Hat schon wer nachgeprüft ob der neue nVidia-Treiber wirklich die 15-25% mehr FPS bringt?
 
Ist in den Benchmarkdiagrammen wohl schon drin. Macht die Sache aber nicht weniger rätselhaft.
Bei 4k deutliche Zuwächse und darunter Verluste?

/edit: vielleicht solte CB doch lieber den integrierten Benchmark nutzen, denn die selbst erstellten Ergebnisse machen keinen Sinn.
 
Zuletzt bearbeitet:
Oh. Dachte das Update ist nur der CPU-Test. Garnicht mitbekommen das auch der neue Treiber getestet wurde^^
 
Ich vermute mal, das die Jungs/Madel von CB schon am Testen des Neuen Treibers sind ?
- Aha hab die neuen Werte gesehen.

Eine Frage:
Warum ist neben der Fury X keine 980Ti/OC getestet worden?
Es würde mich interesieren wie sich die so schlägt bei so einem AMD geneigtem Spiel und am meisten ob die auch in 4K so stark an FPS verliert ?

Meiner meinung nach liegt viel hier an dem das das ein XBOX anywhere Spiel ist...
 
Zuletzt bearbeitet:
Artikel-Update: Mit dem GeForce 387.92 will Nvidia abermals Optimierungen für Forza Motorsport 7 in den Treiber eingepflegt haben. Erste Benchmarks mit GeForce GTX 1080 und GeForce GTX 1060 bestätigen das. Die größere Grafikkarte mit Pascal legt 16 bis 20 Prozent zu, die kleinere knapp über zehn. Je höher das GPU-Limit, desto größer fallen die Zugewinne aus. Radeon RX Vega bleiben noch Vorteile im CPU-Limit, sie sind aber deutlich geschrumpft. Im Vergleich Polaris zu Pascal liegt Nvidia jetzt immer vorne.

Die Abschnitte Grafikkarten-Benchmarks von Full HD bis Ultra HD und Frametimes von Vega 64 und GTX 1080 wurden um aktualisierte Benchmarks ergänzt.
 
Ist in den Benchmarkdiagrammen wohl schon drin. Macht die Sache aber nicht weniger rätselhaft.
Bei 4k deutliche Zuwächse und darunter Verluste?

/edit: vielleicht solte CB doch lieber den integrierten Benchmark nutzen, denn die selbst erstellten Ergebnisse machen keinen Sinn.

Das am lebenden Objekt zu machen, ist nie eine kluge Idee. ;) Das Update ist jetzt offiziell, weil alle Werte passen.
 
Und jetzt bitte mit dem 17.10.1 das gleiche für die AMD Karten :D

Naja jetz sieht es hier eigentlich wieder aus wie in den meisten anderen Spielen auch, auch wenn ich immer noch nicht verstehe, warum AMD bei höheren Auflösungen so viel verliert, war es bei Fury doch früher genau andersrum.
 
kisser schrieb:
Und die ganze seitenlange Diskussion, warum Vega so toll abschneidet war für den Ar***.;)

Naja, für den Ar*** nicht direkt. Nvidia hat halt etwas länger für die "Optimierungen" bzw. das Lösen der Bremse gebraucht. Ist schon eigenartig. AMD war schneller und hatte besseren Support der Karten. Zudem ist die GTX1080 in 1080p immer noch knapp auf Augenhöhe mit der V56 und hat selbst in 4k gerade mal 6% bessere FrameTimes als diese. Aber immerhin.
 
Nitschi66 schrieb:
Wow, das nenne ich mal ein Update! Gute Arbeit der Softwareabteilung von Nvidia.

Wäre es AMD gewesen, wären jetzt Kommentare gekommen, warum AMD die Leistung nicht von Beginn an gebracht hat^^

Auch komisch, warum Nvidia bestätigt hat, dass es sich nicht um einen Fehler handelt und es wirklich die reale Leistung wiederspiegelt, wenn sie ein paar Tage später einen Treiber bringen, der die Leistung um 20% erhöht.
 
@Taxxor: nVidia hat die Benchmarkergebnisse als korrekt bestätigt. Nicht dass es kein Treiberfehler sein kann. Von daher ist da nichts komisches dran.
 
Zurück
Oben