• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Ratchet & Clank: Rift Apart im Test: Radeon RX gibt ohne Raytracing richtig Gas

Kuestennebel79 schrieb:
Irgendwie fühlt sich die Berichterstattung immer mehr pro AMD GPU bei CB an. VRAM Probleme durch Settings ändern ist ein Bug. Das Spiel „braucht“ also nicht mehr, sondern räumt nicht ordentlich auf. FG wird nicht mal angeschaut? Zu frustrierend für Fraktion rot? FSR3 kommt bestimmt noch, oder evtl dich nicht? Dafür AMD fett im Artikel Titel, dabei gibt es nicht mal RT. Finde ich tendenziell.
Ps. Mag CB trotzdem noch
Ja extrem merkwürdige Überschrift, hier gibts massive und sehr merkwürdige Probleme mit den AMD GPUS, und trotzdem kommt überschrift

"AMD GIBT VOLLGASS (ohne raytracing".

Als ob das irgendwie ein Plus wäre dazu wird dann gleich das schnellste AMD Modell 7900xtx getestet aber nicht das schnellste von Nvidia.

Gleichzeitig ist hier eine sehr positive stimmung bei AMD CPUS..

Das Ding ist, Computerbase ist seit einiger Zeit nicht mehr seriös, schau dir bitte mal den Test an eine der Größten Technickseiten kann nichtmal einen ordentlichen Technick Check machen,

schmeisst paar Random GPUs die grad da sind an, und das wars, 3 auflösungen 4,5 gpus...

und irgendwann wenn es niemanden interessiert werden andere gpus nachgeliefert..

bin immer seltener hier mittlerweile.

Gruss an Mercedes,VM,Audi,BMW,Peleton und anderen scheiss der hier gerne verkauft wird.

CB ist mittlerweile nur noch Mainstream mist
Ergänzung ()

Captain Mumpitz schrieb:
Wenn ein Spiel auf einer 2000€ GPU nicht anständig läuft, dann ist etwas falsch. Siehe Remnant 2. In allen anderen Fällen heisst der - vorläufig - fehlende 4090 Bench einfach: es läuft genau so wie man es sich eben vorstellen kann. Ich hab keine Ahnung was das Rumgeschreie nach 4090 Tests soll.

Und auch hier: die Verbreitung interessiert nicht. Die günstigste 4080 kostet 200€ mehr als die günstigste 7900 XTX - also ist es doch interessant zu sehen, wie gut die beiden Karten verglichen miteinander abschneiden?

Selbiges gilt für die ARC: es sind vergleichsweise günstige Nischenprodukte, die insbesondere vom technischen Standpunkt her interessant sind. Also ist es schön zu sehen, ob und wie ein Spiel darauf performt.

Das ist bei der 4090 ungleich uninteressanter, weil da läuft's halt einfach und fertig.
Interessant ist nicht was "technisch" interessant ist für paar nerds, sondern was der leser zu Hause hat...

Das sind keine Arcs noch 7900xtx Karten, die 4090 als Retail Krösus sollte als Referenz immer dabei sein.

Aber jeder hat seine Meinung wenn für dich Arc GPU Test mehr sind für die 3 Menschen in DE mit der GPU wie dem auch Sei, ich beende die Diskusion jetzt da es keinen Sinn hat.

gibts für 1.500€ in deals und jetzt für 1650€..
 
  • Gefällt mir
Reaktionen: Foxel, MalWiederIch, Markenprodukt und 2 andere
ralf.klos schrieb:
Ja extrem merkwürdige Überschrift, hier gibts massive und sehr merkwürdige Probleme mit den AMD GPUS, und trotzdem kommt überschrift
Da RT spielseitig deaktiviert ist, weiß man das nicht.
Auf RDNA2 (durch die Konsolen) weiß man ja, dass es dort funktioniert. Dennoch ist es wohl auch für diese Architektur spielseitig deaktiviert, was ich sehr befremdlich finde
 
Hannibal Smith schrieb:
Da RT spielseitig deaktiviert ist, weiß man das nicht.
AMD sagt am 26ten Juli dazu:
The company released a new graphics driver today, naturally named AMD Software: Adrenalin Edition 23.7.2. In the patch notes for this version, AMD notes that you could run into an "application crash or driver timeout" when playing Rift Apart with ray-tracing and dynamic resolution scaling enabled "on some AMD graphics products, such as the Radeon RX 7900 XTX."
Somit müssen die den Treiber fixen. Bis das geschehen ist, inkl. entsprechendem Testing und Freischaltung bei steam kann es nicht genutzt werden, da sonst ein Shitload an Meldungen an Nixxes geht, der sich über Abstürze von AMD GPUs beschwert.

Wenigstens geht man offen mit dem Problem um.
 
Zuletzt bearbeitet:
ralf.klos schrieb:
bin immer seltener hier mittlerweile.

Gruss an Mercedes,VM,Audi,BMW,Peleton und anderen scheiss der hier gerne verkauft wird.

CB ist mittlerweile nur noch Mainstream mist
Wisch dir doch bitte mal den Schaum vom Mund, sieht unappetitlich aus.
 
  • Gefällt mir
Reaktionen: bad_sign, juwa, Alphanerd und 3 andere
So wenig Grafikkarten im Test. Wo ist Ultra Widescreen? Wo sind die CPU Tests?
Macht für mich immer weniger Sinn, eure Game-Benchmarks.
 
  • Gefällt mir
Reaktionen: 9t3ndo, juwa, Foxel und eine weitere Person
ralf.klos schrieb:
ich beende die Diskusion jetzt da es keinen Sinn hat
Das ist der erste vernünftige Satz von dir seit deiner Anmeldung.
Weil wenn du deinen Account eh nur eröffnet hast um rumzumeckern dass GPU x in den Benchmarks fehlt und zudem irgendwelchen Zusammenhangslosen Mist von Mercedes, Peoloton & co. verzapfst, dann weiss ich gar nicht wozu überhaupt die Anmeldung hier kam.

Weil hättest du dir die Mühe gemacht, den Test überhaupt zu lesen, dann wär dir auch dies hier in's Auge gesprungen: (das selbe gilt auch für @Replay86 )
Technik-Tests von Spielen sind in Sachen Komplexität und Arbeitsaufwand in den letzten Jahren deutlich gewachsen. Um dennoch zeitnah eine detaillierte Berichterstattung liefern zu können, hat ComputerBase das Format angepasst. Tabellen spielen in manchen Abschnitten nun eine größere Rolle.

Darüber hinaus werden Technik-Tests immer mal wieder gestaffelt erscheinen, der gesamte Artikel also nicht auf einen Schlag zur Verfügung gestellt, sondern sukzessiv ergänzt. Um dem Leser von Anfang an mitzuteilen, an welchen Inhalten die Redaktion genau arbeitet und welche Abschnitte noch zu erwarten sind, werden selbige direkt beim Erscheinen inhaltslos enthalten sein. Innerhalb der nächsten Tage werden die fehlenden Teile nachgeliefert. Allerdings gibt es keine Garantie, dass der entsprechende Abschnitt definitiv erscheinen wird – schließlich kann immer etwas dazwischenkommen.

CB hat mit Jan, Wolfgang und mit Abstrichen Volker genau 3 Redakteure welche Spiele und GPUs testen. Wenn du auch nur einmal selber mit 2 verschiedenen Karten Benchmarks durchgeführt hast, welche jeweils mindestens 3 Runs in einer genau reproduzierbaren Umgebung durchgeführt und ausgewertet sowie dargestellt und mit einem Text versehen werden müssen, dann hast du ansatzweise einen Eindruck davon, wie aufwändig ein solcher Test in 3 Auflösungen mit verschiedenen Settings und 7 GPUs allein in Sachen Zeit ausfällt.

Aber hey, was interessiert dich das? Die 4090 ist nicht dabei und darum ist alles scheisse und diesen Monat läuft die Redaktion mal wieder unter dem Titel AMD-Base. Nächsten Monat wechselt's dann wieder zu Nvidia-Base, bis dann im Herbst vllt. Intel-Base mal wieder am Zuge ist, der Abwechslung halber.

Und nein, es gibt keinen Grund weshalb diese GPU immer dabei sein muss. Auf einer 2000€ GPU hat alles uneingeschränkt zu laufen. Fertig. Bench hin oder her.
 
  • Gefällt mir
Reaktionen: Tagesmenu, N0Thing, ComputerJunge und 13 andere
@ralf.klos
Dort drüben ist die Tür, niemand zwingt dich hierzusein und dich extra anzumelden, um alles schlechtzureden.
 
  • Gefällt mir
Reaktionen: danyundsahne, SP-937-215, Orok91 und 2 andere
BloodGod schrieb:
Meine 4090 widerspricht dem vehement. 🤘
Die 4090 ist in dem Spiel aber die einzige Grafikkarte, die in Nativ 4K knapp über 60 FPS schafft. Wenn es nur die schnellste und teuerste Grafikkarte schafft, ist das dann nicht schon sowas wie tot?

Darum geht es aber gar nicht. Nativ 4K ist einfach deswegen tot, da eigentlich alle Spiele mit Upsampling Quality gleichwertig aussehen bei deutlich besserer Performance. Und gar nicht mal so selten auch besser. Warum sollte man dann also noch in 4K Nativ spielen?
Cohen schrieb:
Dann solltet Ihr das aber auch für die niedrigeren Auflösungen genauso handhaben.

UHD mit Upsampling und dann WQHD ohne Upsampling ist relativ redundant.
Irgendwann in Zukunft wird das auch so sein. Das sehe ich anders als bei 4K Nativ aber noch nicht gekommen. Einfach deswegen, da Upsampling mit Zielauflösung Ultra HD deutlich besser aussieht als mit WQHD und vor allem Full HD. Soweit ist Upsampling einfach noch nicht, vor allem für Full HD. Das schafft auch DLSS oft nicht gut.
 
  • Gefällt mir
Reaktionen: MoinWoll, Vitche, Draco Nobilis und 7 andere
Das Spiel sieht schon auf der PS5 (YT) sowas von genial aus, wenn man es für unter 30 € kriegt, werde ich es mir wahrscheinlich zulegen:heilig:
 
  • Gefällt mir
Reaktionen: Mcr-King
entengruetze schrieb:
Bin auch schon weit über 30 und habe Spass mit dem Game obwohl ich sonst eher ernstere Spiele bevorzuge 🙊

das Spiel hat mit der Roboterstory (Clank) auch einen leichten Hauch Ernsthaftigkeit. (Umgang mit Depression und Rückschlägen). Die "Robotersturm" Puzzles, welche Clank bewältigen muss fand ich dahingehend sehr gelungen. Sehr schön konzipiert und visualisiert.
 
  • Gefällt mir
Reaktionen: Mcr-King
JohnWickzer schrieb:
Bei mir gingen die DualSense Features bislang auch nur per Kabel problemlos. Kann aber Rift Apart nicht testen da ichs mir erst in paar Monaten zulegen werde.
Kann bisher nur für Horizon Zero Dawn sprechen und da ging es auch Wireless dank Steam und Co. Rift Appart muss ich mal testen. Hab aber auch den Controller letzens erst geupdated.
 
  • Gefällt mir
Reaktionen: Mcr-King und JohnWickzer
.Sentinel. schrieb:
Vor allem in Sachen, wieviel Rechenkraft wird durch schnöde Auflösungserhöhung und ehöhte FPS benötigt.
Absolut! Deshalb bin ich auch nach wie vor völlig überzeugt von guten Upscalern wie DLSS und hoffentlich auch bald FSR. Natives 4K berechnen ist einfach eine unnötige Verschwendung von Rechenleistung die in wichtigere Dinge gesteckt werden kann.

.Sentinel. schrieb:
Dazu schwirren im Augenblick unterschiedliche Meldungen im Netz herum. Bei manchen scheint der gesamte Umfang auch wireless zu funktionieren. Zumindest behaupten die das.

Ansonsten schreibt Nixxes selbst:

Hier ist immer eine aktuelle Liste: https://www.pcgamingwiki.com/wiki/Controller:DualSense

Spider Man ging auch schon wireless, aber ohne haptisches Feedback (Hab ich auch selber gestestet)

Bei Ratchet & Clank scheint es das gleiche zu sein.
 
  • Gefällt mir
Reaktionen: Mcr-King und JohnWickzer
Wolfgang schrieb:
Irgendwann in Zukunft wird das auch so sein. Das sehe ich anders als bei 4K Nativ aber noch nicht gekommen. Einfach deswegen, da Upsampling mit Zielauflösung Ultra HD deutlich besser aussieht als mit WQHD und vor allem Full HD. Soweit ist Upsampling einfach noch nicht, vor allem für Full HD. Das schafft auch DLSS oft nicht gut.
Zumal es ja trotzdem noch einen Performance Unterschied zwischen 1440p Nativ und 4K + Upsampling Quality gibt und dieser auch je nach Upsampler anders ausfällt, redundant ist das ganze also auch so nicht, solange viele in 1440p noch nativ spielen.
Gut, man könnte das in Zukunft dann abkürzen indem man nur je eine Karte pro Hersteller nimmt und diese jeweils in 1440p nativ testet.
 
Inxession schrieb:
nVidias Taktik geht voll auf.
Alle GPUs unterhalb der 4090 mit Krüppel Speicher ausstatten, damit viele dann eben doch zur 4090 greifen, welche zweifelsohne eine super GPU ist.
Das glaube ich eher nicht. Wer hätte denn damit rechnen können das die Spiele so miserabel optimiert werden das nichtmal 16GB sicher ausreichen. Bei 12GB ja, aber nicht bei 16GB. Das selbst die 4080 nur noch so grade reicht ist ein Armutszeugnis für die Programmierer. Entweder sind die scheinbar so unfähig, das es ein Wunder ist dass das Spiel nicht den PC explodieren lässt. Oder man hat sich die Portierung wegen Profitoptimierung von nem 5 Jährigen machen lassen.
 
  • Gefällt mir
Reaktionen: ComputerJunge, ShowOff, Haldi und 3 andere
Inxession schrieb:
nVidias Taktik geht voll auf.
Eher die Idiotie der Spieleentwickler, denn dank meines Hobby Budgets werde ich mich auch bei der nächsten GPU wieder freikaufen und direkt zur 5090 greifen, um mich "freizukaufen" von den ganzen Restriktionen.
Wenn dann nur noch 5090er Besitzer in 2 Jahren alles auf Ultra spielen können in AAA Games, kastrieren sich die devs ihre eigene Userbasis

Nvidia profitiert dann davon. So gesehen, ja. Aber das Problem ist ja komplexer und woanders.

Dass die meisten AAA Game Releases so problematisch "wegen Nvidia" laufen, ist typischer Paranoia Dünnpfiff einiger User hier unseres geschätzten Computerbase Forums, hat aber nichts mit Nvidia zu tun. ;)
Ergänzung ()

Fallout667 schrieb:
Wer hätte denn damit rechnen können das die Spiele so miserabel optimiert werden das nichtmal 16GB sicher ausreichen. Bei 12GB ja, aber nicht bei 16GB. Das selbst die 4080 nur noch so grade reicht ist ein Armutszeugnis für die Programmierer.
Exakt, das meinte ich.
 
  • Gefällt mir
Reaktionen: RogueSix, MalWiederIch und Fallout667
ralf.klos schrieb:
Als ob das irgendwie ein Plus wäre dazu wird dann gleich das schnellste AMD Modell 7900xtx getestet aber nicht das schnellste von Nvidia.
Unterschiedliche Liga ... die beiden 7900er spielen in der Liga der 4080 und nicht der 4090.
Ich nehme ja beim testen von Autos der Golf-Klasse auch kein Porsche dazu - wir wissen doch da eh wer schneller ist.
 
  • Gefällt mir
Reaktionen: Guphoff, up.whatever, Laphonso und 2 andere
WulfmanGER schrieb:
Unterschiedliche Liga ... die beiden 7900er spielen in der Liga der 4080 und nicht der 4090.
Zumal sich AMD ja sogar "offiziell" selbst über Herkelman abgegrenzt hat von der 4090.
Geschoben haben sie es auf den Preis, aber die Wahrheit ist die Uneinholbarkeit in der Leistung.

ALLERDINGS:
Zur Wahrheit gehört auch: Wäre die 7900XTX ansatzweise auf Augenhöhe mit der der 4090, hätte das AMD GPU Team das komplett ausgeschlachtet.
(Bei der 6900XT kam AMD ja nicht mit dem Preisargument vs. der 3090, die mal eben 50% teurer war... "Komisch", oder?) ;)

Im Vorwege gab es keine Indizien, dass AMD mit dem top RDNA 3 Modell nicht gegen das Top Ada Modell Nvidias antritt. Nach den Benchmarks musste AMD eine Sprachregelung finden, denn die 4090 war mit Sicherheit (wie für uns alle) unerwartet derart uneinholbar vorne.



RDNA4 muss also erstmal bereits an der 4090 deutlich messbar im Sinne eines generational leaps vorbeiziehen in den Raster, Raytracing und Pathtracing fps , und wer das für ein lustiges oder absurdes Argument hält, sollte erstmal abwarten und ggf. ausrechnen, was eine 8900XT abliefern muss, um die 4090 bereits "nur" z.B. 40% hinter sich zu lassen.


Ontopic:
1690908899108.png

1690908959467.png


Die Resonanz der Spielbewertung ist zumindest positiv auf steam.
 
Zuletzt bearbeitet:
Fallout667 schrieb:
Wer hätte denn damit rechnen können das die Spiele so miserabel optimiert werden das nichtmal 16GB sicher ausreichen.
Soll das jetzt Ernst gemeint sein, nachdem Du hier ständig die 8GB VRAM und 128-bit Speicheranbindung der RTX 4060/Ti schön geredet hast?
Das hat sich doch schon seit letzen Herbst abgezeichnet (A Plague Tale:Requiem, Spiderman: Miles Morales..)

Ratchet : RTX 3060 12GB vs RTX 4060 8GB
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz
Wolfgang schrieb:
Wir haben ein paar Eindrücke zum "DirectStorage"-Verhalten des Spiels geschrieben. Genauere Analysen gibt es nicht, das ist auch extrem aufwendig.
Wenn ich sowas hier sehe, fände ich das schon ziemlich relevant, vor allem, da es ja ansonsten keinen wirklichen Vorteil im Spiel zu bringen scheint.

12700K+4090
F2O2t4pWYAIi_kg.png

https://twitter.com/Sebasti66855537/status/1685391744609755136/photo/1

~25% average / ~60% 1% low Steigerung durch DirectStorage Off


Dagegen ne 7900XTX (andere Benchmarkszene, daher FPS nicht direkt vergleichbar)
Screenshot 2023-08-01 185850.png


~3% average / ~6% 1% low Reduzierung durch DirectStorage Off

AMD profitiert nur von "DS Off" bei Rifts, aber auch hier vor Allem bei den Averages deutlich weniger als Nvidia, bei eurer eigenen Benchmarkszene dürfte es für AMD relativ egal sein ob DS an oder aus ist.

DS Off könnte euer Ranking komplett in die andere Richtung kippen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, MalWiederIch, MrHeisenberg und 5 andere
Also 4090 kommt ja noch. Gut. Direct storage nicht? Hätte mich schon interessiert.

Bisschen zu viel Stimmung hier.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben