• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Rage 2 im Test: Mit Vulkan zu hohen FPS und überraschenden Benchmarks

LencoX2 schrieb:
Wenn eine 789 EUR GTX 1080 in knapp 3 Jahren so "veraltet" ist, dass eine 369 EUR RTX 2060 gleich performt, dann lautet mein Fazit:
Ich kaufe überhaupt nichts von dem Hersteller.

Übrigens ist bei NVIDIA schon länger so:
1. Das "Verfallsdatum" in HW oder SW vorgegeben:
- Minimale RAM-Ausstattung
- Übertriebenes, unnützes Einsetzen von neuen Features und Effekten wie Tesselation, RTX um neue HW zu künstlich zu Puschen
2. Relativ frühes Verfallsdatum per SW
- Neue Features nicht / rudimentär im Treiber
- Keine Optimierung für neue Titel (oder nur für das ehemalige High-End Modell)

Darum fallen die alten GTX-Serien 700, 800, 900, 1000 in neuen Titeln immer weiter zurück gegenüber den neuen RTX 2000er und AMD-Karten.

Yey stoppt die Entwicklung please. In 3j die 3060 bitte auf jeden Fall um 30% langsamer machen xD

Merkst du was!
Wo ist denn eine 1080 langsam/schlecht? 3j auf dem Buckel ist für eine Graka ne Menge.

Du sagst wegen einem Game, dass Pascal tot ist usw. was ist denn mit anderen Games? Die 1080 und Vega 64 sind immer noch gleich auf

https://www.google.com/amp/s/www.computerbase.de/thema/grafikkarte/rangliste/?amp=1

Wie alt ist die Vega 64? Wie günstig war sie?

Ich lass es, so einem gezielten Hater kann man leider nicht helfen ^^
 
Mit RX570 8GB hat das Spiel leider seine Probleme bei hohen einstellungen und FullHD .Bei niedriger einstellungen läuft das dann gut.Schade
 
Artikel schrieb:
Die gewünschte Framerate lässt sich frei zwischen 20 FPS und 240 FPS konfigurieren, ...
Artikel schrieb:
einen FPS-Limiter oder weitere Funktionen gibt es dagegen keine.

Ähm? Wenn ich die gewünschte Framerate einstelle, dann habe ich doch einen Framelimiter, oder geht das Spiel dann teilweise noch über die gewünschte Framerate hinaus?

Artikel schrieb:
So wollte zum Beispiel das Overlay des MSI Afterburners nicht funktionieren, auch wenn es an sich mit Vulkan umgehen kann.
Dazu nicht das globale Profil im RivaTunerStatisticsServer (RTSS) nehmen, sondern ein spielspezifisches Profil anlegen und die Erkennung "Application detection level" auf High stellen, dann geht es.
 
Zuletzt bearbeitet: (Anmerkung zu OSD von MSI AB hinzugefügt)
  • Gefällt mir
Reaktionen: Zitterrochen
Die gewünschte Framerate bei rage 2 bedeutet, dass das Spiel die Auflösung selbständig skaliert um möglichst deine erwünschten FPS zu erreichen.
 
@Captain Mumpitz Das war mir schon klar, ich fragte ja auch ob das Spiel über die gewünschte Framerate hinaus geht. Das hast du leider nicht beantwortet.
Also wenn du 60fps einstellst, wird das Spiel dann auch bis auf 90fps gehen wenn möglich, oder wird es bei maximal 60fps bleiben?
Wenn es bei 60fps bleibt, dann hat man doch den Framelimiter.
 
Das sind Minimum-FPS. Wird der Zielwert unterschritten, verringert sich die gerenderte Auflösung und wird nur noch hochskaliert. Konsolen-"Feature", nur halt am PC...
 
Inxession schrieb:
Der Großteil liegt aber dran, das Turing scheinbar mit Low Level besser kann als noch Pascal.
Allein das context- switching in Sachen Async compute wurde um 50% beschleunigt und die Zugriffsmöglichkeit auf die vorher gespeicherten Cachedaten bleibt gewährleistet. Zudem können FP16 und FP32 Operationen zeitgleich ausgeführt werden.

Turing hat massive Architekturveränderungen erfahren und ist mit Pascal überhaupt nicht sinnvoll zu vergleichen.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer, Infi88 und Sun-Berg
@Andy_K sorry, hatte dich falsch verstanden.
Aber ja, sollte eigentlich auch darüber gehen sofern die Hardware mehr FPS hergibt - so wie das @LeChris schon beschrieben hat.
 
Lors schrieb:
Das Spiel scheint sehr OC-instabil zu sein oder hat jemand andere Erfahrungen gemacht? Hatte gestern 2 Freezes mit der Fehlermeldung ""A fatal error occured in the graphics driver"

Taktest du Spiel bezogen? :o Is mir zu aufwendig und bringt zu wenig. Wenn Witcher 3, Battlefield 5 und Project Cars 2 jeweils 30 min fehlerfrei gelaufen sind, gilt mein Setup als eingestellt.

Project Cars 2 reagiert am empfindlichsten von allen Spielen, die ich kenne auf OC - und egal welche HW Komponente: CPU, RAM, VRAM, GPU. Wenn das Spiel läuft, läuft alles. Diese Regel hat sich noch immer bei mir bestätigt.
 
FatalFury schrieb:
Ich kann keine neuen Treiber nutzen, meine 980Ti wird Brutal Sabotiert von Nvidia.
Und selbst, die alten Treiber scheinen noch was Online zu ziehen, bevor sie Installieren.

Am Anfang ist eine GTX oder RTX einfach nur geil und dann kommt die Ledejacke und befiehlt den Betrug am Treiber. Ich kann das unmöglich glauben, das NV da nichts macht.
Will hoffen das war als Scherz gemeint, das ist mit das Lustigste was ich je auf CB gelesen hab :daumen:

Caramelito schrieb:
Yey stoppt die Entwicklung please. In 3j die 3060 bitte auf jeden Fall um 30% langsamer machen xD

Merkst du was!
Wo ist denn eine 1080 langsam/schlecht? 3j auf dem Buckel ist für eine Graka ne Menge.

Du sagst wegen einem Game, dass Pascal tot ist usw. was ist denn mit anderen Games? Die 1080 und Vega 64 sind immer noch gleich auf

https://www.google.com/amp/s/www.computerbase.de/thema/grafikkarte/rangliste/?amp=1

Wie alt ist die Vega 64? Wie günstig war sie?

Ich lass es, so einem gezielten Hater kann man leider nicht helfen ^^
Vor allem was ist das für eine Rechnung ?
Wenn du heute ne 2060 oder 2070 kaufst, du leicht an der Taktschraube drehst hast du teils 1080, 1080ti (out of the Box) Performance, was soll daran schlecht sein ? Nichtsdestotrotz war die Pascal Generation eine Starke, fällt halt jetzt leicht ab in low-level API's, nix Neues.

Ich frag mich allerdings wie man immer alle Fakten negieren kann, und immer wie ein Psychopat auf Verschwörungstheorien kommt, das Ergebnis für das Budget was AMD bzw. das ATi Team hier zur Verfügung hat ist ziemlich beachtlich, auch hier.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Caramelito
ZeroZerp schrieb:
Allein das context- switching in Sachen Async compute wurde um 50% beschleunigt und die Zugriffsmöglichkeit auf die vorher gespeicherten Cachedaten bleibt gewährleistet. Zudem können FP16 und FP32 Operationen zeitgleich ausgeführt werden.

Turing hat massive Architekturveränderungen erfahren und ist mit Pascal überhaupt nicht sinnvoll zu vergleichen.

LG
Zero


Was die Theorie ja untermauert, das nVidia die Low Level API Verbreitung, absichtlich gebremst hat.
Wie man unschwer erkennen kann, performen die AMD Karten auf Augenhöhe mit Turing und weit besser als der damalige Pascal Konkurrent.

Das wusste nVidia … deren Marktanteil erlaubt es aber die Spieleentwickler etwas zu gängeln.

Und im Gängeln ist nV ja sowieso die Nummer 1.

Kann ich nicht gut heißen ….
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Das liest sich ganz spannend:
Die GeForce RTX 2080 zieht der GeForce GTX 1080 Ti um zehn bis 13 Prozent in Ultra HD davon

Zieht davon ... pascal sieht kein Land mehr ... weit abgeschlagen ... kannst du wegschmeissen.

Oder ?

Ok, zieht um ca. 5 fps davon, liest sich auch nicht so spannend.

Meiner 1080Ti eher so um 1-3 fps, wenn überhaupt.

Wow ! Hut ab ! Da kann man mit Pascal ja nun wirklich nichts mehr anfangen. ;)

Tja ... muss ich jetzt leider ausbauen, meine 1080Ti Strix OC. Taugt nix mehr.

Ach ... ein Glück spiel ich nur in 1440p.
Wie sieht's denn da aus ?

Hui ... gut über 70 fps mit meiner ?

Scheint ja doch noch zu taugen. Hab ich ja noch mal Glück gehabt. ;)

Kannst drin bleiben, Pascal.
Muss dich ja erst mal bezahlt machen. Die 500€ gebraucht, waren ja auch ultrateuer.

Noch mal geb' ich nicht so viel aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pleasedontkill, Infi88 und .Sentinel.
LencoX2 schrieb:
Wenn eine 789 EUR GTX 1080 in knapp 3 Jahren so "veraltet" ist, dass eine 369 EUR RTX 2060 gleich performt, dann lautet mein Fazit:
Ich kaufe überhaupt nichts von dem Hersteller.

Hast du schonmal geschaut wie groß der Chip der RTX 2060 ist, was die 50% mehr theoretische Shader Leistung gegenüber Pascal an Platz gekostet hat? Was die Ausrichtung auf parallele Berechnung von Raytraversierung neben der normalen GrafikPipeline an zusätzlichen Platzbedarf verschlingt.

Warum sollte die Karte mit Async Compute, FP16, Mesh Shading, mehr Compute Power etc pp. Nicht schneller sein dürfen?

Die paar weniger Shader werden da kompensiert durch die Ausrichtung auf mehr Compute Power, besseres Culling oder Features wie CAS die einfach Renderarbeit einsparen.

Und wird es jetzt Nvidia echt vorgeworfen dass sie das PLV nach drei Jahren verdoppeln und deutlich verbessern??

Eine RTX 2060 FE oder billig Custom ist im Schnitt gerade mal 5% langsamer als ne 1080 FE, wieso soll sie mit der Unterstützung moderner Technologien nicht flotter unterwegs sein?
LencoX2 schrieb:
Übrigens ist bei NVIDIA schon länger so:
1. Das "Verfallsdatum" in HW oder SW vorgegeben:
- Minimale RAM-Ausstattung
- Übertriebenes, unnützes Einsetzen von neuen Features und Effekten wie Tesselation, RTX um neue HW zu künstlich zu Puschen

Urban Legend. Die Vram Ausstattung ist gar nicht so wichtig denn auch High statt Ultra Textur details sehen super aus.
Man kann heute noch mit einer 2 GB Karte alles spielen, ja sicher nicht mit hohen Details aber so schlimm wie dargestellt ist das nicht und ein übertriebene Einsetzen von RTX mit gerade mal 3 Titeln? Sehe ich nicht und auch ob Tessellation von Nvidia wirklich so übertrieben eingesetzt wird ist umstritten.
Beweise gibt es dafür keine, sondern nur Vermutungen, die zum großen Teilvon Informationsmangel herrühren.
LencoX2 schrieb:
2. Relativ frühes Verfallsdatum per SW
- Neue Features nicht / rudimentär im Treiber
- Keine Optimierung für neue Titel (oder nur für das ehemalige High-End Modell)

Kann ich nicht bestätigen, die Softwareunterstützung wurde bei nvidia für DXR auch für Pascal erweitert, Direct X12 sogar noch für Fermi umgesetzt.
LencoX2 schrieb:
Darum fallen die alten GTX-Serien 700, 800, 900, 1000 in neuen Titeln immer weiter zurück gegenüber den neuen RTX 2000er und AMD-Karten.

Nein, das liegt in dem Falle auch an der deutlich niedrigeren Computeleistung, die GCN vorgelegt hat, NVidia ist erst mit Pascal und Turing nachgezogen bzw hat überholt.
Ansonsten zeige mir doch bitte einen Beleg für deine Behauptung,nur die gibt es einfach nicht. Es gibt Gerüchte, Behauptungen, Verschwörungstheorien, aber keinen Beleg.

AMDs Hawai fällt auch immer mehr von Polaris ab, auch die Fury X, interessiert aber offenbar niemanden.
Auch dort liegt es an der Hardware und nicht an mangelndem Support, weil da eben nichts mehr zu holen ist.
 
  • Gefällt mir
Reaktionen: Infi88
Inxession schrieb:
Was die Theorie ja untermauert, das nVidia die Low Level API Verbreitung, absichtlich gebremst hat.
Also wenn man die Spieleentwicklung anschaut, dann hat sich eher die Art und Weise geändert, wie Dinge berechnet werden. Man geht zwangsläufig immer mehr in die stochastische Ecke und dort unterscheiden sich die Workloads eben vom bisher üblichen Rasteralltag.

Aufgrund der bisherigen Berechnungsgrundlage und eben auch der Komplexität der Szenen gab es schlichtweg auch keinerlei Notwendigkeit für DX12.
Man stößt aber seit kurzer Zeit ans API Limit von DX11 und wechselt daher vermehrt auf die API, die mit den modernen Anforderungen an die Berechnung angepasst sind und diese schnell bedienen kann.
Ich kann überhaupt nicht erkennen, wie Du die Entwicklung der Gameengines in eine Richtung, die schon seit Jahren feststeht nun plötzlich mit einer "Manipulation" seitens nvidia übereinzwingen willst.

Wie man unschwer erkennen kann, performen die AMD Karten auf Augenhöhe mit Turing und weit besser als der damalige Pascal Konkurrent.
Die AMD Karten performen nicht besser oder schlechter als sie es unter bestimmten Workload- Mixes immer getan haben.
Und natürlich können sie unter gewissen Umständen auch in gewissen Szenarien aufgrund ihrer schieren Compute- Leistung glänzen.
Das ist aber bisher eher die Ausnahme, denn die Regel und die Frage die sich dabei auch immer stellt, ist, ob die Entwickler nicht den einen oder anderen Flaschenhals übersehen haben, der einer älteren Archtiektur übermäßig zusetzt (vergleichbar mit nvidia tesselationgate).

Das wusste nVidia … deren Marktanteil erlaubt es aber die Spieleentwickler etwas zu gängeln.
[/ALUHUT]


Und im Gängeln ist nV ja sowieso die Nummer 1.

Kann ich nicht gut heißen ….
Da vertrete ich die Meinung, dass jeder halbwegs intelligente Mensch nicht zu irgendeinem Produkt gezwungen oder davon gegängelt werden kann. Hat er doch in vollem Bewustsein nebst der Möglichkeit sich umfassend zu informieren z.B. eine Grafikkarte gekauft.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Infi88 und KlaraElfer
Infi88 schrieb:
Will hoffen das war als Scherz gemeint, das ist mit das Lustigste was ich je auf CB gelesen hab :daumen:

Vor allem was ist das für eine Rechnung ?
Wenn du heute ne 2060 oder 2070 kaufst, du leicht an der Taktschraube drehst hast du teils 1080, 1080ti (out of the Box) Performance, was soll daran schlecht sein ? Nichtsdestotrotz war die Pascal Generation eine Starke, fällt halt jetzt leicht ab in low-level API's, nix Neues.

Ich frag mich allerdings wie man immer alle Fakten negieren kann, und immer wie ein Psychopat auf Verschwörungstheorien kommt, das Ergebnis für das Budget was AMD bzw. das ATi Team hier zur Verfügung hat ist ziemlich beachtlich, auch hier.
1. Das mit dem RAM und dem Treibern sind keine Verschwörungstheorien, sondern Fakten.
=> HW: R390 - Vega haben 8 GB, die brandneue RTX2060 derer 6GB
=> Treiber: Weiter oben wurde es gepostet: GTX 980Ti hat keine neuen vernünftigen Treiber

2. Was soll das?
Dass die RTX2060 gut performt, wird nicht bemängelnd. Nur dass die GTXen relativ immer schlecht(er) perfomen

3. Ich schrieb:
ICH kaufe nicht von dem Hersteller.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Wird es zu dem Spiel einen Community Test geben?
 
  • Gefällt mir
Reaktionen: danyundsahne
Captain Mumpitz schrieb:
Aber ja, sollte eigentlich auch darüber gehen sofern die Hardware mehr FPS hergibt - so wie das @LeChris schon beschrieben hat.
@LeChris hatte ja gesagt, dass es ein Konsolen Feature für PCs ist. Nun bei der Konsole ist es doch so, dass 60fps angestrebt werden und nicht mehr. Also auch wenn die Hardware mehr fps hergeben könnte werden dennoch nur 60fps gezeigt. Seine Aussage mit "Minimum-FPS" ist somit auch nicht so aussagekräftig, wie ich es mir gewünscht hätte.
Und das ist eben meine Frage, ob es am PC auch nur bis zur gewünschten fps geht, oder ob durchaus auch mehr fps ausgegeben werden, sofern möglich.
Bisher hat mir das noch keiner wirklich beantworten können.
 
Ich hab Rage 2 selber nicht, aber soweit ich das mitgekriegt habe, sollten auch mehr FPS drin liegen und das ganze ist eher als "flexible Untergrenze" zu verstehen.

ACG hat das in seiner Review ansatzweise thematisiert, ist da aber nicht im Detail drauf eingegangen.
 
Zurück
Oben