Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRatchet & Clank: Rift Apart im Test: Radeon RX gibt ohne Raytracing richtig Gas
Ist nicht auffällig, wie schlecht die kleinen RX 6600 und RX 7600 abschneiden? Um die ziehen selbst die ganz kleinen Nvidia- und Intelkarten Kreise. Das passt doch nicht so recht ins Bild des Tests, oder?
Intel-Grafikkarten sind nicht sonderlich schnell in dem Spiel und der kleinen Radeon tut die Kombination aus 8 GB VRAM und halbiertem Speicherinterface überhaupt nicht gut. Auch die neue Radeon RX 7600 kann die Zielmarke deswegen nicht überspringen, Rechenleistung gibt es eigentlich genug dafür.
Ansonsten gibt AMD nur „mehr gas“, da Computerbase mit dem fehlerhaften DirectStorage in diesem Spiel testet.
Dieses verursacht bei Nvidia und Intel starke FPS Einbrüche - bei AMD nicht. Und das auch noch nennenswerte Unterschiede. Dazu lässt man die RTX 4090 weshalb auch immer weg.
Bei der Umsetzung hätte man DirectStorage jedenfalls auch gleich lassen können …
Techpowerup aber auch andere Benchmarks zeigen wieder wie gut die immer wieder schlecht geredete RTX 4060 TI 16 GB ist, unterschied von 22,2 FPS zu der 8 GB Version. Und der Vram Hunger verschwindet nicht mehr und wenn man jetzt den Preis der 8 GB nimmt und mal den Vergleich sieht, dann machen 100 Euro unterschied für 22 FPS schon Sinn.
Nein, das ergibt keinen Sinn. Die 8 GB Version hätte es einfach gar nicht erst geben dürfen. 100 € für 8GB RAM sind lächerlich. Die 4070 (ti) sollte eigentlich 16 GB haben und die 4080 eher 20 GB. Nvidia will, dass man zum teureren Modell greift und genug machen das. Überhaupt hätte die 4060 eigentlich eine 4050 sein sollen, 4070 die 4060 etc.
Leute wie du sind die idealen Kunden. Statt systematische Verarsche zu kritisieren redet man sie sogar noch schön.
Edit: Ich meine du sagst es ja sogar selbst. Der VRAM-Hunger verschwindet nicht, 8 GB sind zu wenig, und das weiß Nvidia doch am besten. Genau deshalb bekommt man ja nur 8 GB, und auch die 4070 ist mit 12 GB so bemessen, dass es schnell kanpp wird. Nvidia schafft das Problem und verkauft dir dann teuer die Lösung.
Man sollte mit solchen Äußerungen vorsichtig sein. Warum werden AMD Grafikkarten denn getestet, wenn von 10 verkauften Grafikkarten, 2 von AMD sind. Das ist genau eines, irrelevant
Wie kleine Kinder denen man den Lollie weggenommen hat. Dann war die 4090 halt nicht von Beginn an drin so what? Meine Auflösung gibts gleich gar nicht, mach ich deswegen nen Rant?
Alleine wegen den gleichen VRAM wäre ein Vergleich zwischen 7900XTX vs 4090 mit 24GB von Beginn an sinnvoller gewesen auch die Speicherbandbreite wäre vergleichbarer. Das ist die Kritik die ich habe und darauf weiterhin Bestehe. Das jetzt nicht alle und soviele Karten getesten werden können sehe ich ja auch voll ein. Aber dann lasst doch die 4080 einfach raus oder nehmt euch Zeit dann kommt der Test halt paar Tage später.
Wie ist denn das Verhalten in den RT Benchmarks zu erklären?
1440p
4090 zu 4080 = +21%
4080 zu 4070Ti = +33%
4K + Upsampling
4090 zu 4080 = +33%
4080 zu 4070Ti = +23%
Von 1440p nativ auf 4K + Upsampling und damit auch 1440p Renderauflösung steigt der Abstand von 4090 zur 4080 stark an von 21 auf 33%, aber gleichzeitig sinkt der Vorsprung der 4080 auf die 4070Ti von 33 auf 23%
Der Abstand zwischen 4090 und 4070Ti ist in beiden Fällen nahezu gleich (61% und 64%), nur die 4080 bricht also plötzlich ein.
Ohne RT sind die Abstände aller drei Karten zueinander in den beiden Settings gleich.
"3.840 × 2.160 + Upsampling Quality" bedeutet, dass je nach Karte / Hersteller entweder DLSS, FSR oder XeSS in der höchsten Qualitätsstufe verwendet wurde?
Man sollte mit solchen Äußerungen vorsichtig sein. Warum werden AMD Grafikkarten denn getestet, wenn von 10 verkauften Grafikkarten, 2 von AMD sind. Das ist genau eines, irrelevant
"3.840 × 2.160 + Upsampling Quality" bedeutet, dass je nach Karte / Hersteller entweder DLSS, FSR oder XeSS in der höchsten Qualitätsstufe verwendet wurde?
Wie ist denn das Verhalten in den RT Benchmarks zu erklären?
Von 1440p nativ auf 4K + Upsampling und damit auch 1440p Renderauflösung steigt der Abstand von 4090 zur 4080 stark an von 21 auf 33%, aber gleichzeitig sinkt der Vorsprung der 4080 auf die 4070Ti von 33 auf 23%
Der Abstand zwischen 4090 und 4070Ti ist in beiden Fällen nahezu gleich (61% und 64%), nur die 4080 bricht also plötzlich ein.
Ohne RT sind die Abstände aller drei Karten zueinander in den beiden Settings gleich.
Mhm, das ist wirklich merkwürdig. Wie du sagst, die RTX 4070 Ti und die RTX 4090 verhalten sich aber gleich und auch die Abstände bei der RTX 4070 und der RTX 4070 Ti bleiben identisch. Damit ist definitiv die RTX 4080 das ungewöhnliche Ergebnis. Die Karte habe ich aber dermaßen oft neu getestet, dass ich bei der Karte ein falsches Ergebnis ausschließe. Einen Grund erkenne ich jetzt aber auch nicht.
Elisando schrieb:
"3.840 × 2.160 + Upsampling Quality" bedeutet, dass je nach Karte / Hersteller entweder DLSS, FSR oder XeSS in der höchsten Qualitätsstufe verwendet wurde?
Artikel-Update: ComputerBase hat diverse weitere Grafikkarten in Ratchet & Clank: Rift Apart getestet, angefangen bei der Radeon RX 6650 XT bis hin zur GeForce RTX 4090. Insgesamt 22 Grafikkarten sind damit in den Rasterizer-Benchmarks vertreten, in den Raytracing-Tests sind es 14 3D-Beschleuniger.
Danke für den Nachtrag und die damit verbundene Arbeit.
Mich hat es ja gewundert, wie relativ schlecht die Mehrleistung einer 4090 in Relation zum Aufpreis gegenüber meiner 4080FE ist. Es war wohl die absolut richtige Entscheidung von mir, im November 500€ zu "sparen" und zur kleineren Schwesterkarte 4080FE zu greifen.
Die 4090 ist in UHD im Schnitt ca. 30-40% vor einer 4080. Das ist eine Größenordnung, die man definitiv deutlich merkt. Ob einem das einen etwaigen Aufpreis wert ist, ist dann natürlich etwas anderes.
Für mich ist die 4080 schon immer relativ unattraktiv gewesen und wenn ich schon (deutlich) vierstellig investiere, dann würde ich immer zur 4090 greifen. Damit kann man sich mit diesen +30-40% zur Not auch den Wechsel in der Generation danach sparen.
Techpowerup aber auch andere Benchmarks zeigen wieder wie gut die immer wieder schlecht geredete RTX 4060 TI 16 GB ist, unterschied von 22,2 FPS zu der 8 GB Version. Und der Vram Hunger verschwindet nicht mehr und wenn man jetzt den Preis der 8 GB nimmt und mal den Vergleich sieht, dann machen 100 Euro unterschied für 22 FPS schon Sinn.
Die Preisfrage wäre jetzt, was passiert, wenn man eben nicht stumpf "Max Settings" auswählt, sondern gezielt Texturdetails, RT und andere speicherfressende Optionen um eine Stufe reduziert.
Ich würde eher bei WQHD mit DLSS bleiben, und Details reduzieren.