• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forza 7 Benchmark: Vega hat mehr Benzin im Blut als Pascal

Da sieht man doch mal, was ohne Gameswork und künstliche Bremsen für andere Grakahersteller die Realität ist. Denke mal da wird Nvidia nun am Treiber drehen und wohl villeicht durch das nicht berechnen von ein "paar" "unwichtigen" Details dann die Lücke wieder schließen oder macht das ganzen durch reduzieren der Texturqualiät wieder wett.

Wie dem auch sei, bitte nehmt das Game mit in den Testpacour auf @ Redaktion, es sind schon jetzt viel zu wenig unbelastete Spiele drinne!
 
VAN DOOM schrieb:
Aber man kann sich ja aus fast allem raus reden wenn man möchte...

Jo kann man durchaus, wenn man viele Spiele mit Gameworks inside hat, dann steigen die Nvidiakarten nun man massiv im Rang nach oben. Das ist doch die ganze Taktik hinter Gameworks, weil eben keiner reinkucken darf in die Module. Die OpenSource Geschichte von AMD ist dagegen ja ein offenes Buch für Nvidia.

Ich akzeptiere aber auch keine Rangliste, wo mit vielen AMD gesponsorte Titel gemessen wurde sind. Auch wenns ausgegleichen wären.

Wenn dann müssen das neutrale Titel sein, die keinen Hersteller als Sponsor haben, dann kann ein fairer vergleich erst stattfinden!
 
Vitali.Metzger schrieb:
@Limit
Naja wenn man den Steam Statistiken glauben schenken darf liegt Windows 10 bei 50%.

Genau mein Punkt. Welcher Entwickler kann es sich schon leisten auf die Hälfte der potentiellen Kundschaft zu verzichten?
 
rico007 schrieb:
Forza 7 setzt zwar auf DX12, allerdings ist die Hardwarefeatureebene DX11. Die These das Vega wegen den neuen Features und der engen Zusammenarbeit von DX12 stark profitiert, ist nicht richtig. Die Nvidia Karten ab 1070 performen einfach nicht richtig, da bremst was. Das macht das gute AMD Ergebnis nicht schlechter aber einfach mal abwarten bis da ein neuerer Treiber oder Patch kommt. Würde mich nicht wundern wenn die Nvidia Karten dann etwas besser performen.

Genau darauf wollte ich hinaus, dass wenn das Spiel Tier 12.1 von DX12 vollständig eingebunden hätte, sähe es für die nicht unterstützenden Pascal Karten noch schlechter aus als derzeit gegenüber den Tier 12.1 voll unterstützenden RX Vega Karten.

Da Du denkst, dass es ab GTX 1070 (abwärts) extrem unrund bei den nVidia Karten laufen soll, meinst Du dann stünde es im Zusammenhang mit dem GDDR5 Speicher (da GTX 1080 und GTX 1080Ti auf GDDR5X laufen)?

Das erklärt trotzdem nicht wirklich die klare Überlegenheit der AMD (RX Vega) Karten in den Frametimes gegenüber allen nVidia Pascal Modellen.

Beim Lesen des Artikels hatte ich so den Eindruck, als ob nVidia Forza 7 Motorsport - obwohl scheinbar das Rennspiel par excellence derzeit - schon abgeschrieben hat als einen der Titel, in dem man nicht glaubt aktuell (bevor Volta aufschlägt) an AMD heran zu kommen (zumal es auch kein Gameworks Titel ist und der Einfluss wohl eher gering sein dürfte und vermutlich ist man glücklich genug mit der gezeigten Leistung, auch wenn man insgesamt 'mal die Krone nicht hat).

Ein möglicherweise noch kommender nVidia Patch mag die Leistung etwas verbessern/nachbessern, aber ich denke der Punkt geht dieses Mal (ausnahmsweise) an AMD. Ob da nicht doch Shader Intrinsics mit hineinspielen (exklusiv auf AMD Seite) wäre interessant zu wissen, zumal der Titel ja sehr optimiert/ausreizend für die XBOX Umsetzung entwickelt worden sein dürfte.

Auf Async Compute hin hat CB ja nicht getestet (aber vielleicht wird das ja noch nach gereicht), dass ein solches Feature aber Einfluss auf die Leistung haben könnte wird seitens CB für wahrscheinlich gehalten und würde Deiner Aussage bzw. Deinem Eindruck widersprechen, dass Features keinen starken Einfluss haben.

Ob Async Compute genutzt wird, ist unbekannt, erscheint in Anbetracht der Testergebnisse aber als wahrscheinlich.

In einem Eurogamer Artikel wird allerdings beschrieben, dass es - wie vermutet - keine 1:1 Portierung der XBOX Version auf dem Windows PC ist, denn schon das Anti-Aliasing ist ein anderes in der PC als der XBOX Version:

On the PC, multi-sampling up to 8x is in play, which provides a crisp presentation with some nicely resolved sub-pixel details. EQAA is used instead on Xbox One X - an AMD specific AA implementation that shares similarities with MSAA.

Krautmaster schrieb:
Liest sich bisschen so als hätte da jemand nen Ständer *hust* ... freu mich auch aber ich versuche mich mal nicht zu früh zu freuen ... eine vergleichsweise mickrige 1070 auf lange Sicht gegen die 56 verlieren muss. Wie schnell Vega zur Bestform kommt wird man sehen. Besser schneller. Ich würde heute auch ner 1070 ne Vega 56 vorziehen wenn ich sie zum Sonderpreis erhalten würde. Nur stinkt da meine alte 980 Ti noch zu gut gegen an. Die Vegas sind solche Monster, wenn irgendwann ihre Rohleistung ähnlich gut rumkommt wie bei Pascal dann müssen sie eher schneller als die GTX 1080Ti sein. Da hätte ich sie auch von Anfang an gesehn. Schlimm genug dass dem nicht so ist.

Nein, mir ist keiner dabei abgegangen :D, zumal ich auch (noch) keine RX Vega 56 habe und selbst dann ... nicht wirklich, mich freut es einfach, dass all die Unkenrufer/Miesepeter bzgl. RX Vega einmal ihr Fett weg bekommen und widerlegt werden mit diesem ersten Test eines Spieles, in welchem die RX Vega Architektur die Pascal Architektur vorführt, wenn auch nicht deklassiert (vielleicht würde letzteres aber gelingen, wenn alle Features der Vega Architektur von Entwicklern - ohne nVidia Intervention/Einfluss - ausgereizt würden unter DX12.1) ;).

Auf solch einer Leistung kann man jedenfalls aufbauen und AMD/RTG sollte Microsoft/Turn 10 sehr dankbar für dieses erste, auffällige Erfolgserlebnis gegenüber der Konkurrenz bzw. für die erste vorbildliche Umsetzung eines Entwicklers/Publishers seit Marktstart von RX Vega sein. Ob es bei der AoE 1 Remastered Version auch besser für AMD als nVidia laufen wird, bleibt allerdings abzuwarten.

Nur, wenn AMD/RTG den Marktstart der Custom Modelle und die Preisentwicklung nicht bald unter Kontrolle bekommt, nützen solche ersten Erfolgserlebnisse in Spieletests auch nicht viel.

Der Wolfenstein II Test sollte ja auch in AMDs Richtung gehen, Quake Champions unter Vulkan ebenso, bei Far Cry 5 (auch wenn es für mich nicht als Kauf in Frage käme) bin ich sehr gespannt und wenn Star War Battlefront 2 ähnlich Battlefield 1 gestrickt ist, sieht es dort auch gut aus ... Shadow of War als nVidia Bundle-Titel wird wohl eher wieder an nVidia gehen, CoD WWII als Gameworks Titel bzw. nVidia gesponsortes Spiel wohl ebenso und Warhammer II evt. auch, aber dazu wird's ja auch bald Tests geben.

Naja, die 64er sollte irgendwann eine GTX 1080Ti packen, wie eben jetzt in Forza 7 insgesamt (wenn auch nicht auf 4K/UHD), aber ich denke das Potential/die Features der Vega Architektur sind noch nicht annähernd alle optimiert von AMD und ausgereizt von den Entwicklern, das dauert leider, aber vielleicht geht es nach Marktstart der Vega 11 Karten dann schneller voran im kommenden Frühjahr?

Die 56er ist oberhalb bis gleichauf anzusiedeln mit einer GTX 1080 und da auch schon jetzt bei Forza 7 mehr als im Soll, wie ich finde, und bietet sich schon an, aber ich kann noch bis zum Volta Marktstart mit einem Kauf warten/mich gedulden (solange meine GTX 670OC noch hält) und dann wird abgewogen bzgl. Preis, Leistung, und Speicherausbau ... die einzige Pascal Karte, die für mich wohl vorstellbar wäre, wäre dann eine preisreduzierte GTX 1080Ti, aber eine effizientere GTX 1170/2070 mit 12 anstelle 11 GB wäre mir dann doch lieber und wohl etwas langlebiger.

Free-/G-Sync-Monitore werden für mich auch noch einige weitere Jahre kein Muss sein/keine Rolle spielen, denn ich kaufe eigentlich nur Monitore von einigermaßen hochwertigen Herstellern, die - im Gegensatz zu vielen Billigherstellern - nur spärlich im Gaming-Monitor-Segment vertreten sind ... ein Dell darf es (bei gutem Angebotspreis) gerne wieder werden :).

Hoffentlich beweist sich bis dahin auch HBCC (vielleicht bei einer möglichen Vega 11 Karte mit nur 4 GB HBM2) und ist dann bedenkenlos seitens AMD/RTG aktiviert.

Eine GTX 1070(Ti) lohnt überhaupt nicht/bringt keinen spürbaren Leistungszuwachs gegenüber einer GTX 980Ti, auch bei einem Sonderpreis von 300 Euro würde ich da wohl nicht mehr an Deiner Stelle zugreifen, bei einer GTX 1080 könnte ich bei 300 Euro allerdings schwach werden, trotz der zukünftig zunehmend unrunden Pascal Architektur, die sich mit Erscheinen von Volta wohl noch bemerkbar schwächer - als jetzt gegen Vega - in vernünftig programmierten Low Level API Spielen machen wird.

Da wirst Du mindestens eine GTX 1080Ti oder eine dann treiber- und featuretechnisch gut implementierte RX Vega 64 (oder dessen Refresh mit dem im Sommer 2018 zu rechnen sein soll) benötigen oder eben gleich eine GTX 1180/2080 anschaffen, die aber teurer ausfallen dürfte.
 
Zuletzt bearbeitet:
Das vorerst erste spiel wo vega mal gut abschneidet und schon bekommt man feuchte träume ....
na ja-die hoffnung stirbt zuletzt und mögen noch einige dx12 spiele vor 2020 auf dem markt erscheinen.

Packt als Vergleich wenistens PjC 2 im Test mit dazu ... der Gerechtigkeit zu Liebe und das uns hier niemand abhebt.
 
oldman65 schrieb:
Das vorerst erste spiel wo vega mal gut abschneidet und schon bekommt man feuchte träume ....
na ja-die hoffnung stirbt zuletzt und mögen noch einige dx12 spiele vor 2020 auf dem markt erscheinen.

Packt als Vergleich wenistens PjC 2 im Test mit dazu ... der Gerechtigkeit zu Liebe und das uns hier niemand abhebt.
Wie kann es denn dann sein, dass die kleine Vega im schnitt vor der gtx 1070 liegt?

Durchschnitt FullHD
gtx1070 2,1% langsamer als die Vega 56
Durchschnittsbildung aus ~960 Einzeltests
Durchschnitt WQHD
gtx1070 5,1% langsamer als die Vega 56
Durchschnittsbildung aus ~1170 Einzeltests
Durchschnitt UltraHD
gtx1070 6,0% langsamer als die Vega 56
Durchschnittsbildung aus ~1150 Einzeltests

https://www.3dcenter.org/artikel/la...ega/launch-analyse-amd-radeon-rx-vega-seite-2
 
Läuft Forza so ab wie ich es aus Gran Turismo 3/4 kenne. Autos kaufen, Rennen gewinnen = Geld Gewinnen, Autos mit Geld kaufen oder tunen?

In spielen wie Grid und Forza 6 Apex kauft man keine Autos sondern kann aus vielen auswählen wenn man sich mit Punkten "rauflevelt" - das finde ich absolut fad. Nur mit Geld auf Art und Weiße wie ich es aus Gran Turismo kenne, finde ich eine "Karriere" interessant.
 
Es kann nicht sein das ein Rennspiel eine So hohe CPu Anforderung hat
mein verdacht UWP
UWp app kann mit vc+ visual studio oder mit java erstellt werden
Da klingeln bei mir warnglocken JAVA das singlecore monster überhaupt
Über visual basic was sehr zugänglich ist ist eher parralisierbar.
nun dx12 erlaubt es code gleiczeitig auf mehreren core auszuführen ohne zu parralisieren.
Es ist dem entwickler überlassen dann die drawcalls aufzusplitten tut ein entwickler das kann dieser dem gpu treiber im code anweisen welche und wieviele cpu cores angesprochen werden sollen
Nun zum Problem Nvidia hat kein hardware shedulöer seit maxwel 2014
zwar nimmt nvidia sheduler die befehle auf muss diese aber erst im software sheduler wieder vereinen auf einen kern. Um dann diese ieder aufteilen auf vorhandene threads und je höher der grundtakt der CPu desto weniger cpu core werden belastet.
Das erfordert mehr cpu last ohne das vom spiel geforderte CPu drawcalls.
aus vielleicht 2,0 ipc wird 2,6
Nun was tun das spiel in dx12 mit visual studio erstellen und als exe kompilieren was schonmal die java kompomente killt
Dann die drawcalls die gefordert sind an gpu treiber richten und den software sheduler von nvidia mache lassen und die Anpassungen von dx12 weglassen
mit uwp was quasi ein verschlüsselten ausführbare datei ist nicht umgehbar ist.
klarer fall von vorteilnahme für ein hersteller dessen api MS komplett übernommen hat anstatt wie bei artverwandten vulkan auf beide gpu Hersteller Eigenheiten zu achten.
Bei vulkan muss man wirklich die gpu shader programmieren während bei dx12 eine fertige dll bibliothek vorhanden ist was wird wohl der Entwickler machen.
Man muss immer davon ausgehen das man den einfachsten weg geht und es zuerst um content Erstellung geht sowie das es auf den Konsolen läuft danach wird im schnellverfahren eine PC port gemacht und da ist es glück wer das compiliert ob dieser sich auskennt oder ob dieser stur die bibliothek nutzt
meist ist genau 1 programmierer notwendig der Rest wird per tools gemacht
Aus diesen Grund ist uwp das Schlimmste was als compilieung genutzt werden kann. Das dx12 auf nvidia schlechter läuft ist hinzunehmen da hilft nur mehr cpu Takt.
Was hier beim test mit nen broadwel-e auf 2,0ipc (4,3ghz)nicht beachtet wurde hier wäre ein ci7 7700k auf 5,2ghz notwendig ipc 2,6
und das bei 4k nvidia
Da sieht man das die uwp Nutzung echt ein Problem ist.
als exe würde ich fast tippen das etwa 2,0 ausreichend wäre bei einer gp102
ich vermute das der entwickler einfach ein fps ziel nutzte
Und dann dynamisch die qualität anpasste je nach cpu drawcalls praktisch bei Konsole am PC als Vergleichbarkeit ein grauen.


Fazit ist nettes konsolenspiel mit nicht vergleichbaren grafik test Möglichkeit ohne dabei an machbaren maximalen hardware zu haben.
Ein quad mit 5,2ghz und eine gpu mit 10,5gflops um auf 4k 60fps zu bekommen 1080p 144fps ist gelinde gesagt unverschämt das isn Rennspiel.
Da passiert weniger als in einen openworld game wie gta5, just cause 3, farcry 4
 
Kasmopaya schrieb:
Wieso sollten wir 3 Jahre warten? (geht übrigens schon in ca. 1 Jahr los das Überlaufen der 8GB Modelle, in 2 Jahren sind sie kurz vor dem Absturz wie heute die Fury X)Macht doch einen VRam lastigen Benchmark und fertig sind wir. Wenn ich mich recht entsinne hat das PCGH schon gemacht und die Frametimes waren im Arsch.


Ist schon klar, wollte nur sagen das ich die "wenig VRam reicht locker für alle Zeiten" Ausreden seit Ewigkeiten, speziell seit Fury X zu genüge kenne. Damit lockt ihr keinen mehr hinter dem Ofen hervor.

Harte Fakten und wir können weiter reden. Links mit harten Fakten.

Die Fury war schon bei erscheinen etwas zu gering mit Speicher ausgestattet. Schon 4-5 Jahre vorher waren 3-4Gig am Markt etabliert.
Trotzdem gab es dafür wenig Probleme weil sich auch das Speicher-Management/Kompremierung deutlich verbessert hat. Die 8Gig der Vegas sind dazu im Verhältnis deutlich besser aufgestellt, auch wenn mehr immer besser ist. Das alles hängt nat. auch von den eigenen Präferenzen ab und damit meine ich reale Auflösung und Einstellung in Game. Aus meiner Sicht taugen weder die Vegas noch die schnellsten NV aktuell für 4k Gaming in allen Lebenslagen. Dafür müssen wir noch 1-2 Generationen warten. :( Auch deshalb finde ich die Vega in Bezug auf die Speicherausstattung stimmig.
Vermutlich macht AMD aber selbst in der Konstellation schon Minus.
 
syfsyn schrieb:
UWp app kann mit vc+ visual studio oder mit java erstellt werden
Das ist bestenfalls halb richtig. Laut Wikipedia gilt:
It supports Windows app development using C++, C#, VB.NET, and XAML.
Richtig ist, dass MS eine Middleware zur Verfügung stellt, mit der Android Apps, die in Java geschrieben sind mit UWP zusammen laufen, aber Forza 7 ist keine Android App.

syfsyn schrieb:
Da klingeln bei mir warnglocken JAVA das singlecore monster überhaupt
Java ist nicht übermäßig performant, aber die Multicore-Unterstützung ist sehr gut. Das gleiche gilt übrigens auch für das .NET Framework.

syfsyn schrieb:
Nun was tun das spiel in dx12 mit visual studio erstellen und als exe kompilieren was schonmal die java kompomente killt
Dir ist schon klar, dass Visual Studio nur eine IDE ist? Ich werde das Gefühl nicht los, dass du überhaupt nicht wirklich verstehst, was du da schreibst.

syfsyn schrieb:
Bei vulkan muss man wirklich die gpu shader programmieren während bei dx12 eine fertige dll bibliothek vorhanden ist was wird wohl der Entwickler machen.
Und die dll erstellt auf magische Art und Weise die Shaderprogramme? Bei DX12 musst du auch deine eigene Shaderroutinen schreiben. Mag sein, dass es dafür ein paar Libs gibt, die dabei helfen, aber schlussendlich wissen nur die Entwickler selbst, was die Shaderroutinen tun sollen und nicht irgendeine Lib.

syfsyn schrieb:
Das dx12 auf nvidia schlechter läuft ist hinzunehmen da hilft nur mehr cpu Takt.
nVidia braucht mit einer API, die speziell dafür gedacht ist die CPU-Last zu senken mehr CPU-Leistung? Wäre das so, hätte nVidia ziemlich miese Treiberarbeit geleistet (und/oder die Spieleentwickler). Letztere haben allerdings in der Regel kein Interesse daran die weitverbreitesten GPUs absichtlich zu benachteiligen.

syfsyn schrieb:
Was hier beim test mit nen broadwel-e auf 2,0ipc (4,3ghz)nicht beachtet wurde hier wäre ein ci7 7700k auf 5,2ghz notwendig ipc 2,6
Dir ist schon bewusst, dass die IPC nicht mit der Frequenz skaliert, sondern im Gegenteil sogar eher tendenziell sinkt?
 
Ein Forenmitglied hatte damals im Vega Launch Thread ein sehr aufschlussreiches YouTube Video gepostet, wo jemand aus denn AnandTech Forum gezeigt hat, wieso NVIDIA unter DX11 soviel stärker (geworden) ist. Wenn ich alles richtig verstanden hatte, sah NVIDIA z.B. bei dem guten abschneiden von Civilization 5 (was die Threading Funktion gut unterstützte) und hat ihren Treiber so angepasst, dass er die Threading Aufgabe selbst übernahm - selbst bei Spielen die eigentlich nicht das Threading Modell von DX11 unterstützt. Damit konnte natürlich ein sehr großer Teil von Spielen im Vergleich zu AMD beschleunigt werden, bei minimalen Overhead.

AMD hat auf der anderen Seite auf einen immer besseren Hardware Scheduler gesetzt. Leider waren die Spielehersteller halt zu faul dies ordentlich zu unterstützen. Deshalb ist AMD eben bei DX11 meist im Hintertreffen. Allerdings zeigt sich die Stärke der Architektur, sobald DX12 genutzt wird und der Hardware Scheduler ordentlich verwendet wird. Ich glaube genau letzteren Fall sehen wir hier.

Welche Lösung jetzt die elegantere ist, kann man nur schwer sagen. Mich würde ja interessieren, warum man nicht beides machen kann, also AMD eine Softwarelösung einbaut oder NVIDIA ein besseren Hardware Scheduler für DX12. Fakt ist allerdings, dass NVIDIA bei 99% der Spiele eben besser abschneidet, da die wenigsten Entwickler dem Beispiel AMD folgen.
 
@ zeedy

naja, wenn selbst die 980 TI unter 4K 8x MSAA so hohe Bildraten produziert dass die GPU kaum an Rand ausgelastet wird, dann wirds bei den deutlich schnelleren Topmodellen kaum anders sein.
Wieso sollte zb eine GTX 1080 TI derart schlecht im Vergleich zu einer GTX 1070 skalieren? Erklärs mir.

CPU Limit muss ja nicht die Engine bedeuten und heißt auch nicht 100% CPU Last. Reicht wenn eine API Funktion am Limit ist.

Würde reines GPU Limit herrschen würden die GPUs (gerade die mit gleicher Architektur) sich maximal von einander distanzieren können. Dabei ist es ja auch erstmal vollkommen Banane ob AMD jetzt besser damit umgeht. Offensichtlich tun sie das, insbesondere in Forza 7.

Edit2: schaun wir und doch mal die GPU Rangliste und Forza im Vergleich an:
ich nehm mal 1440p da da die meisten GPU vertreten sind
2017-10-01 10_53_58-Grafikkarten-Rangliste_ GPU-Vergleich - ComputerBase.png
GTX 1060 als Basis.

Im GPU Rating liefert da die GTX 1070 im Schnitt 134% Leistung der GTX 1060, bei Forza 126%. Da würde ich sagen alles im Rahmen, Toleranz. Bei der GTX 1080 TI sind es hingegen schon 209% zu 155%. Das ist fern ab einer GPU limitierten Skalierung.

In 4K sind es von der GTX 1070 -> GTX 1080 FE im Rating 160%. Bei Forza 140%. Das ist mehr im GPU Limit als noch 1440p ja, aber saubere Skalierung über die GPU sieht anders aus.
 
Zuletzt bearbeitet:
Aber egal.
Ist doch mal erfrischend wenn auch schwächere Karten in den Genuss von 4K kommen.
 
ja absolut. Forza kann man sich den Kauf einer wirklich teuren GPU eh sparen ;) 60p fps reichen für ein Renngame absolut aus wie ich finde.
 
Zuletzt bearbeitet:
Du meinst 60 fps :)
Mit 60p wäre ich jetzt nicht sehr zufrieden im Jahr 2017 :D
 
Zurück
Oben