• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Rage 2 im Test: Mit Vulkan zu hohen FPS und überraschenden Benchmarks

Zotac2012 schrieb:
Da wundert mich schon deutlich mehr, dass die Turing Grafikkarten mit der Vulkan API und dem Async Compute nicht deutlich besser Performen. Vor allem, wenn man bedenkt, das Raytracing ja ein reines DX12 Feature ist und man annehmen sollte, das Nvidia aus der Vergangenheit gelernt hätte, was die Async Compute schwäche von Pascal betrifft. Aber so wie es scheint, lag bei der neuen Turing Serie, die ganze Aufmerksamkeit nur auf Raytracing, alles andere spielte scheinbar nur eine untergeordnete Rolle!

Dann erklär mal warum Turing bei Wolfenstein 2 und Doom gut mit Vulkan zulegt wenn da nicht viel verbessert wurde?

Vulkan ist nicht gleich Vulkan. Wie bei DX12 muss auch hier der Entwickler es gut auf die verschiedenen Architekturen anpassen da der Treiber weniger Einfluss hat.
Somit ist der Performancezugewinn immer unterschiedlich.
Zumal AC nur durchschlägt wenn die GPU noch etwas Luft hat und nicht eh schon auf Anschlag läuft.

Es kann also unterschiedliche Ursachen haben warum unter Dx12 und Vulkan einmal AMD und dann wieder Nvidia mehr zulegen.
Gibt es genug Beispiele für.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Transistor 22, simosh und 2 andere
danyundsahne schrieb:
Das sehe ich absolut genauso...wenn man bedenkt Pascal und Vega sind eigentlich die direkten Konkurrenten gewesen. Die V56 vs 1070 und V64 vs 1080. Und jetzt ist die V56 satte 25-29% (WQHD) schneller als die 1070!

Hola liebes Nvidia! Da verarscht aber jemand seine Kunden enorm. Entweder macht AMD super Produktpflege (nach wie vor) oder NV schert sich nen Dreck um die alte Gen (nach wie vor)...! :D



Ich kann keine neuen Treiber nutzen, meine 980Ti wird Brutal Sabotiert von Nvidia.
Und selbst, die alten Treiber scheinen noch was Online zu ziehen, bevor sie Installieren.

Am Anfang ist eine GTX oder RTX einfach nur geil und dann kommt die Ledejacke und befiehlt den Betrug am Treiber. Ich kann das unmöglich glauben, das NV da nichts macht.
 
  • Gefällt mir
Reaktionen: Crankson, Casillas, schuetze27 und 6 andere
danyundsahne schrieb:
Hola liebes Nvidia! Da verarscht aber jemand seine Kunden enorm. Entweder macht AMD super Produktpflege (nach wie vor) oder NV schert sich nen Dreck um die alte Gen (nach wie vor)...! :D

Jup, genau. Das machen wir an einem Ausreißer fest. 🙄
 
  • Gefällt mir
Reaktionen: KlaraElfer und kisser
KuroSamurai117 schrieb:
Dann erklär mal warum Turing bei Wolfenstein 2 und Doom gut mit Vulkan zulegt wenn da nicht viel verbessert wurde?
Wenn Du mir erklärst, warum dann die Radeon VII und die Vega64 in World War Z mit Vulkan schneller sind als die RTX 2080 Ti, muss ja eine tolle Verbesserung sein?
 
  • Gefällt mir
Reaktionen: FatalFury
Captain Mumpitz schrieb:
Spricht trotz allem nicht grade für die API
Du machst hier den gleichen Fehler wie ComputerBase: die mangelhafte Umsetzung von Vulkan im nVidia-Treiber nicht klar auszusprechen, sondern die Schuld bei "den anderen" zu suchen. Das war bei DirectX 12 (und fehlenden Hardware-Features!) auch schon so. Rhetorisch wird es dann so ausgelegt, als würde das Spiel "zufällig" den besseren Treibern "erstaunlich gut" "liegen".

So "zufällig" ist das gar nicht. Und sowohl Vulkan als auch DirectX12 sind Industrie-Standards.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crankson, Gorgone, simosh und 4 andere
Zotac2012 schrieb:
Wenn Du mir erklärst, warum dann die Radeon VII und die Vega64 in World War Z mit Vulkan schneller sind als die RTX 2080 Ti, muss ja eine tolle Verbesserung sein?

Gerade das Game zeigt doch wie abhängig es vom Entwickler ist. Da hat man einfach überhaupt nicht an Turing angepasst und schon läuft es nicht so gut.

Was gibt es da an den Zusammenhängen nicht zu verstehen?
Es gibt Test die zeigen das Turing unter Verwendung von AC zulegt.
Warum gibt es dann DX12 Games wo Turing immer noch mehr als eine Radeon 7 performt?
 
  • Gefällt mir
Reaktionen: Baal Netbeck
ComputerBase schrieb:
Bei AMD spielt das Alter keine Rolle: Sowohl Polaris als auch Vega schneiden in Rage 2 gut ab und legen sich teils erfolgreich mit den Turing-Beschleunigern an.
Wo legt sich Polaris denn erfolgreich mit Turing an? :confused_alt: :D
 
  • Gefällt mir
Reaktionen: Infi88
Jetzt werden die Pascalkarten künstlich von NVidia per Treiber lahmgelegt und sei es nur durch Unterlassung der Optimierung, wobei ich auch davon ausgehe das dort aktiv nachgeholfen wird, damit die Leute den überteuerten RTX Dreck kaufen. Hab auch das Gefühl das die selben Spiele damals besser auf der NVidia liefen als sie es jetzt tuen. Tschau NVidia, die nächste Karte wird eine AMD werden. Dann brauch ich mir auch kein Kopf um das G Sync compatible zu machen, dann läuft jeder Freesync Monitor und zwar ohne Bildfehler.

---
Der Post spiegelt meine persönliche Meinung wieder und muss nicht mit der Meinung anderer übereinstimmen.
 
  • Gefällt mir
Reaktionen: Crankson, schuetze27, valnar77 und 6 andere
RobinSword schrieb:
Wo legt sich Polaris denn erfolgreich mit Turing an? :confused_alt: :D

Also die RX 590 kommt der GTX1660 schon verdammt nahe, im Artikel steht nurnoch 1% Differenz zu den sonst üblichen 8%.
Und er sagte ja nicht das NUR Polaris an die Turings rankommt, sondern er sagte Polaris UND Vega legen sich TEILS erfolgreich mit den Turing Vertretern an...

Also theoretisch hat er mit der Aussage recht ;)

Persönlich finde ich es schon beachtlich, das GCN theoretisch in der Lage ist, auch wenn deutlich ineffizienter, mit Turing oder Pascal mitzuhalten. Natürlich in wenigeren Titeln als es einigen lieb ist, egal welches Lager man da betrachtet.
 
  • Gefällt mir
Reaktionen: or2k
danyundsahne schrieb:
Das sehe ich absolut genauso...

Ja, aber es ist völliger Unsinn. Kein GPU Hersteller hat jemals die alten GPU´s nachweislich ausgebremst.
Es ist völlig normal dass Vega in Titeln mit hoher Compute-Leistungsanforderung sich etwas absetzen kann, dafür ist sie in UE4 Titeln und Directx11 Titeln oft deutlich langsamer.
Langfristig wird die Vega 64 wohl 5 bis 10% vor der 1080 rauskommen.

danyundsahne schrieb:
wenn man bedenkt Pascal und Vega sind eigentlich die direkten Konkurrenten gewesen. Die V56 vs 1070 und V64 vs 1080. Und jetzt ist die V56 satte 25-29% (WQHD) schneller als die 1070!

Du vergleichst jetzt aber nur 1 Spiel gegen den Performanceschnitt.
Geh mal zurück zum Anno 1800 Test in Directx12, da sieht es für Pascal wieder besser aus, es hält sich also in etwa die Waage.
danyundsahne schrieb:
Hola liebes Nvidia! Da verarscht aber jemand seine Kunden enorm. Entweder macht AMD super Produktpflege (nach wie vor) oder NV schert sich nen Dreck um die alte Gen (nach wie vor)...! :D

Unbewiesene Verschwörungstheorie.

Zotac2012 schrieb:
Aber so wie es scheint, lag bei der neuen Turing Serie, die ganze Aufmerksamkeit nur auf Raytracing, alles andere spielte scheinbar nur eine untergeordnete Rolle!

Wie kommst du darauf? Turing legt durch Async Compute doch um 9% zu?

Zotac2012 schrieb:
Wenn Du mir erklärst, warum dann die Radeon VII und die Vega64 in World War Z mit Vulkan schneller sind als die RTX 2080 Ti, muss ja eine tolle Verbesserung sein?

Vulkan bei World War Z ist broken und nicht dafür geeignet Vergleiche anzustreben, zudem kam erst vorgestern ein neuer Nvidia Treiber für das Spiel der mehr Performance unter Vulkan verspricht.
Nehmt euch doch nicht immer 1 Spiel heraus und trefft dadurch Ableitungen, das ist wieder so eine unnötige F-Manier.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Transistor 22, Lord B. und 4 andere
Wolfgang schrieb:
Das liegt einfach daran, da beim kommenden Testparcours (es wird endlich!) die Vega 56 bis WQHD getestet wird, die GTX 1080 aber bis UHD.

Wieso? Die GTX 1080 ist Last Gen & End of Life. Vega 56 erreicht in modernen Titeln (wie gerade hier zu sehen) GTX 1080 Leistung - ich sehe nicht, wieso man die Vega 56 nicht in UHD testen sollte, die GTX 1080 aber schon?!

Entweder beide oder nur Vega 56 - alles andere finde ich doch sehr fragwürdig.
 
  • Gefällt mir
Reaktionen: Crankson, s0UL1, Casillas und 10 andere
Spannend wäre noch, wie sich zwei RX 580 im CF schlagen.
Danke aber für den Test, leider habe ich kein Bedürfnis es zu zocken :)

@Übermir: Die Verbreitung einer Karte spielt bestimmt eine Rolle.
 
mkdr schrieb:
Hä? Eine 2060 ist schneller als eine 1080 wegen weil es eine 2060 ist, soso.
Ja ist so. NVIDIA will es so und / oder ihre alte Generation egal und wird nicht gepflegt.
Ist doch ganz einfach.
Die HW aendert sich ja nicht bleibt folglich nur die SW
 
  • Gefällt mir
Reaktionen: mkdr
duskstalker schrieb:
Wieso? Die GTX 1080 ist Last Gen & End of Life. Vega 56 erreicht in modernen Titeln (wie gerade hier zu sehen) GTX 1080 Leistung - ich sehe nicht, wieso man die Vega 56 nicht in UHD testen sollte, die GTX 1080 aber schon?!

Dann mal die Frage an dich: Was ist deiner Meinung nach ein "moderner Titel"?
Mir kommt es ganz oft so vor, dass die modernen Titel nur Titel sind die auf AMD gut laufen.
https://www.computerbase.de/2019-04...rks/#diagramm-anno-1800-1920-1080-cb-settings
Anno ist auch ein moderner Titel und da leistet die Radeon VII gerade mal so viel wie eine GTX 1070 in höheren Auflösungen wird es dann besser.
Wolfenstein mit Async Compute, TSSAA, FP16, CAS ist immernoch ein Titel der von den low-level Features her am besten ausgebaut ist und da verliert eine GTX 1080 kaum gegen eine Vega 64 und die RTX 2080Ti liegt auch inkl. CAS 50% oder sogar mehr vor der Radeon VII.
Also man muss da schon genauer hinsehen und sich die Frage stellen, ob man wirklich einen neutralen Standpunkt hat, oder ob man in eine Selektivität abdriftet.

LencoX2 schrieb:
Ja ist so. NVIDIA will es so und / oder ihre alte Generation egal und wird nicht gepflegt.
Ist doch ganz einfach.
Die HW aendert sich ja nicht bleibt folglich nur die SW

Die neue Harwdare profitiert etwas mehr von den neuen Features, schon ist der kleine aber vorhandene Abstand doch bestens erklärt.
Im Test profitiert die RTX 2070 um 9% durch async compute, die 1080 nur um 4%, normalerweile unterstützt Pascal nur verbesserte Preemption gegenüber Maxwell, wo man Async Compute ein klein wenig verbessert hat.

MrDanielVie schrieb:
Der Post spiegelt meine persönliche Meinung wieder und muss nicht mit der Meinung anderer übereinstimmen.

Verschwörungstheorien als Meinungen zu verpacken, tut schon verdammt weh.
Aber das muss die Gesellschaft in allen Themenbereichen aushalten, Politik und dann wohl auch in einem Hardwareforum. Belege nicht nötig.
Ergänzung ()

LencoX2 schrieb:
Die HW aendert sich ja nicht bleibt folglich nur die SW

Die Hardware hat sich mit Turing also nicht geändert?
Krasse Aussage.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Transistor 22, Conqi, Jan und 2 andere
mkdr schrieb:
Wieso ist eine 2060 vor einer 1080?

Nein...Turing kann Low Level APIs gut ab...Pascal nicht...deshalb haben sich ja AMD Besitzer schon vor Jahren die Hände gerieben, weil sie damals schon auf eine GPU gesetzt haben (sowohl GCN als auch Vega sind sehr gut in Low Level APIs) die gut DX 12 und Vulkan kann in der Hoffnung dass diese irgendwann mal verwendet werden. Besser spät als nie...ist natürlich böse für Pascal Besitzer...aber dann merken nVidia Kunden mal wie das ist wenn Spiele nicht für ihre GPUs optimiert werden (die Mehrheit der 0815 Kunden wird noch immer eine Pascal Karte haben). Hut ab Avalanche!
 
  • Gefällt mir
Reaktionen: Gorgone und Infi88
S.O.L.D.I.3.R schrieb:
@Übermir: Die Verbreitung einer Karte spielt bestimmt eine Rolle.

Ich nehme mal an, dass die Vega 56 öfter verkauft wurde als die Vega 64.

Ich kann die Entscheidung die Vega 56 nicht in UHD zu testen zumindestens ein bisschen nachvollziehen. Der ursprüngliche Gegenspieler (1070/1070Ti) werden ja auch nicht getestet. Irgendwo muss man am Parkour Kompromisse eingehen.

@tidus1979
Ist aber nicht der erste Ausreißer unter Vulkan ;)
 
RobinSword schrieb:
Im ganzen Artikel keine einzige Aussage zum Thema CPU? Das lässt irgendwie tief blicken bzgl. Relevanz dieser. Sonst feiert man doch immer die sich angeblich rasant entwickelnde Mehrkernoptimierung der Spiele ab... :D

Wär trotzdem interessant gewesen zu erfahren, ob der empfohlene 6 Jahre alte 4770K wirklich in allen Situationen ausreicht...
Tief blicken lässt auch dein Sachverstand, wenn du dir die FPS der 2080ti auf 1080p ansiehst was war dann wohl los :rolleyes:?
Willst du völlig Sinn befreit auf 540p runtergehen und nochmal alle Karten testen ?
KuroSamurai117 schrieb:
Dann erklär mal warum Turing bei Wolfenstein 2 und Doom gut mit Vulkan zulegt wenn da nicht viel verbessert wurde?

Vulkan ist nicht gleich Vulkan. Wie bei DX12 muss auch hier der Entwickler es gut auf die verschiedenen Architekturen anpassen da der Treiber weniger Einfluss hat.
Somit ist der Performancezugewinn immer unterschiedlich.
Zumal AC nur durchschlägt wenn die GPU noch etwas Luft hat und nicht eh schon auf Anschlag läuft.

Es kann also unterschiedliche Ursachen haben warum unter Dx12 und Vulkan einmal AMD und dann wieder Nvidia mehr zulegen.
Gibt es genug Beispiele für.
Korrekt, ergänzend gesagt ist RT auch kein DX12 exklusive Feature wie von ihm behauptet sondern geht auch schon auf Vulkan und wird man wahrscheinlich bald in Aktion sehen, iDSoftware ist hier mit Doom Eternal ebenfalls heißer Kandidat.

LencoX2 schrieb:
Ja ist so. NVIDIA will es so und / oder ihre alte Generation egal und wird nicht gepflegt.
Ist doch ganz einfach.
Die HW aendert sich ja nicht bleibt folglich nur die SW
Belege ? Die 1080ti läuft eigentlich meist erwartungsgemäß was die FPS angeht, und hat durch Treiberpflege ihrer Zeit auch gewaltig zu gelegt(+RT Hell Yeah), natürlich sollte man sich dann etwas mehr den neuen Generation widmen, völlig normal.
 
Mal wieder typisch Nvidia Base. Hier schneiden die Nvidia Karten ja noch gut ab und werden vergleichweise noch gut geredet, indem man dem Spiel eine Sonderrolle gibt.

Liebe Tester, das ist mal ein Spiel ohne das AMD oder Nvidia seine Finger im Spiel haben. Daher ist dieses Spiel von der Aussagekraft deutlich höher anzusehen, wie euer sonstiger Testparkour der gespickt ist mit Vorzeigetiteln für Nvidia Grafikkarten.

Fakt ist doch mal das Nvidia Karte in Spielen die nicht extra mit Sondergrafiken und Alleinstellungsmerkmalen wie Raytracing oder Hairworks aufwarten, die letzte Zeit immer schlechter abgschnitten haben als das direkte Gegenstück von AMD. Nvidia Base stellt das hier gern anders dar. Sobald dx12 oder Vulkan ins Spiel kommt und kein es Nvidia optimiertes Spiel isr, dann schneiden die AMD Karten deutlich besser ab als sonst. Die Karten sind eben für dx12 und vulkan ausglegt und können dort ihre Leistung abrufen. Dx11 kann die Leistung der Karten nicht nutzen.

Ist doch auch nicht schlimm, weil beide Produkte noch gut genug sind. Es geht nur um die Art der Berichterstattung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gorgone und Volvo480
Äußerst interessant ist der gesamte Frametime-Graph und an der Stelle frage ich mich, woher diese extremen Ausreißer nach unten kommen.
Mal sinds die AMD Karten, mal hat Nvidia riesige Probleme aber unterm Strich wenn man sowas hat und empfindlich auf Mikroruckler reagiert kann man ohne Sync gar nicht anständig spielen, weil letztlich das was aufm Monitor ankommt genau so von Bild zu Bild ruckelt wie der Balken nach oben und unten ausschlägt.

Ich würde zu gerne wissen woher das Problem kommt, warum immer ein Hersteller es hin bekommt während der andere es "verbockt".
Wenn ich z.B. nen Shooter sehe (wie jetzt hier z.B.) und der Frametime Balken zeigt mir so ein Desaster an wie bei der GTX 1080/RTX2070 dann würde ich mir das Spiel schon gar nicht erst kaufen in so einem Zustand, weils für mich persönlich nichts wichtigeres gibt in einem Shooter, als 1A sauberste Frametimes zu haben die gleichmäßig verlaufen.

Mich wundert es immer, wie z.B. The Witcher 3 und GTA V so Butterweiche Frametimes zaubern die sich in einer flüssigen Bildwiederholrate auf dem Monitor äußern, dann aber andere Spiele dermaßen daran scheitern und auch noch abwechselnd innerhalb beider Grafikkartenhersteller.

So wirklich über "überzeugende" Benchmarks eines Herstellers kann ich mich gar nicht freuen, weil es niemals eine Konstante darstellt, im nächsten Titel hat Nvidia dann die besseren Frametimes und AMD stinkt ab oder gar Beide.
 
@KlaraElfer

Anno ist einseitig optimierte Grütze, genau wie der Vorgänger.

Moderne Titel sind für mich erst kürzlich veröffentlichte Titel, die anständig auf moderne Hardware optimiert sind und / oder eine moderne API nutzen und davon profitieren.

Und ja - da zählt auch Wolfenstein dazu, wo nvidia auch sehr stark ist. Aber da zählen halt auch Titel dazu, die auf CB irgendwie nie erwähnt werden, wie bspw. Forza Horizon 4, Strange Brigade, Resident Evil 2, BF5 usw usf.

Abgesehen davon ändert das alles nichts daran, dass die GTX 1080 EOL und für einen GPU Parcours weniger relevant ist als eine aktiv vertriebene und zu einem günstigen Preis erhältliche V56, die im selben Performance-Segment liegt. Der GPU Parcours ist im wesentlichen eine Kaufberatung. Ich sage ja nicht, dass die GTX 1080 nicht getestet werden soll - ich sage nur, dass ich es unangemessen finde, die GTX 1080 zu testen, V56 aber nicht. Entweder beide, keine, oder V56 - da sie ein aktives Produkt ist.

Die V56 nicht zu testen suggeriert verschiedene, nicht besonders "gesunde" Ansichten, wie etwa, dass V56 nicht für 4k geeignet ist, die GTX 1080 schon. Das ist gemessen an den jüngsten Ergebnissen aber absolut nicht der Fall. Ebenso bekommen nur die GTX 1080 Besitzer Zahlen fürs zukünftige Aufrüsten für neue High End Karten auf 4k. Auch V56 Besitzer können eine 2080 Ti oder Radeon 7 oder Navi 20 für 4k kaufen wollen.

Übertragen auf die CPUs hieße das, dass man einen EOL last gen 8600k anstelle eines current gen 2600x bencht. Macht genau so wenig Sinn.

Wenn wir für diese Entscheidung die Nutzerzahlen als entscheidende Metrik heranziehen, können wir auch direkt aufhören was anderes als Intel und nvidia zu benchen. Das kann nicht der Maßstab für eine neutrale Presse sein.
 
  • Gefällt mir
Reaktionen: Crankson, TheBear1517, FatalFury und 10 andere
Zurück
Oben