Test Spider-Man: Miles Morales im Test: Noch spektakulärer und GPU-fressender als das Original

sethdiabolos schrieb:
Die RTX 3080 ist seit gut 2 Wochen kein High-End mehr, sondern obere Mittelklasse. Das man da nicht alle Regler nach rechts schieben kann insbesondere mir Raytracing sollte klar sein. Spielt man in WQHD mit Raytracing gibt es mit der Karte keine Probleme mehr, für UHD inkl. RTX ist sie genauso wie z.B. die 6800XT zu schwach, ohne Raytracing reichen beide Karten wunderbar.
Man kann sich das natürlich auch schön reden aber 10GB waren schon beim erscheinen der GPU zu wenig und wurde oft genung bemängelt.
Jetzt ist es Fakt das der zu kleine VRam die GPU schneller zum Alteisen schickt als Versionen mt mehr VRam
Eigentlich schade aber war abzusehen....schon vor zwei Jahren....
 
  • Gefällt mir
Reaktionen: el_zoido und coral81
Northstar2710 schrieb:
Das wurden sie ja nicht explizit. Es sind spiele gewesen die schon ein gewisses Grundgerüst hatten.
Die Spiele wurden dennoch für die PS5 veröffentlicht, d.h. auch optimiert.
 
.Sentinel. schrieb:
Ja- Leider sind da der Aluhutfraktion der Foren mal wieder die Pferde durchgegangen... Das Gerücht wurde lange, lange, lange widerlegt. Der Stammtisch hat aber mehr Macht :)
Ich bin aus der Thematik länger raus und habe vieles auch damals nicht weiter verfolgt. Ich will auch gar nicht darüber streiten. Wenn Crysis 2 ein schlechtes Beispiel war, dann akzeptiere ich das. Allerdings wurde damals so viel über over-usage von Tessellation geredet, dass in meinem Kopf irgendwas dran gewesen sein muss. Mir ging es in Bezug auf Spiderman auch nicht um eine Schuldzuweisung.
.Sentinel. schrieb:
Eine Menge fixed- Function Einheiten, die parallel zu allen anderen Aufgaben die für das Raytracing notwendige Berechnungen durchführen kann. Diese arbeiten in den Workloads deutlich flexibler als die der Konkurrenz.
Ganz so einfach sieht das für mich nicht aus. Reflexionen in Spiderman kosten bei AMD z.B. ähnlich wenig wie auf Nvidia. Bei mittleren Schatten ist der Abstand auch noch kaum größer als ohne RT. Aber bei Schatten "Hoch" oder "Sehr Hoch" fällt die Leistung bei AMD ins Bodenlose. Es gibt ja nicht "den" RT-Core. Ray-Intersections kann AMD auch in Hardware. BVH-Traversal kann AMD angeblich nicht als FF, dafür aber Nvidia. Ist das der Bottleneck bei den Schatten? Oder funktioniert der IF-Cache von RDNA2 nicht gut, weil die BVH-Checks zu viele Misses erzeugen und die Leistung deswegen an der im Vergleich zu Nvidia deutlich geringeren Speicherbandbreite hängt? Sorgen BVH-Queries gar zu einer Cache Pollution, die auch die Hitrate für andere Zugriffe runterzieht? Mit Ada und RDNA3 kommen auch noch beworbene Reordering-Features hinzu, die bei Ada bisher zumindest noch keinen Effekt zu haben scheinen, weil sie vom Entwickler explizit angesprochen werden müssen (?).

Natürlich ist mehr dedizierte Hardware am Ende immer besser, aber sie kostet auch Fläche und treibt die Kosten nach oben. Von daher finde ich es nicht "schlimm" nur das für die Praxis Nötige zu tun und worst cases zu ignorieren.

.Sentinel. schrieb:
Ohne RT fehlt einfach die Hälfte der Schatten und teilweise sind Schattenwürfe an Stellen, wo sie nicht hingehören.
Sorry, falls das falsch rüberkam: Ich meinte immer den Unterschied zwischen RT Schatten Mittel und (Sehr) Hoch. Dass gegenüber RT Off viele Schatten (in Form von Umgebungsverdeckung) dazu kommen, ist mir schon klar. Aber mittlere Schatten gibts ja relativ günstig bei beiden.
 
Berserkervmax schrieb:
Man kann sich das natürlich auch schön reden aber 10GB waren schon beim erscheinen der GPU zu wenig und wurde oft genung bemängelt.
Jetzt ist es Fakt das der zu kleine VRam die GPU schneller zum Alteisen schickt als Versionen mt mehr VRam
Eigentlich schade aber war abzusehen....schon vor zwei Jahren....

Es gab schon vor 5 Jahren Spiele, die die 10 GB gesprengt haben und die Texturen waren trotzdem Mist.

Moderne Engines nutzen z.B. Virtual Texturing und können den Speicher damit sehr viel Effizienter nutzen und so trotz stark limitiertem VRAM Budget in der Nähe der Kamera immer die bestmöglichen Texturen anzeigen.

Spätestens mit Direct Storage und SFS soll das alles nochmal sehr viel effizienter werden.

Die Engine von Spider-Man scheint beides nicht zu nutzen, denn sobald man die Texturstufe wechselt, werden auch sofort die Texturen ausgetauscht.
Gut, zwischen Hoch und Sehr hoch ist nur an sehr wenigen Stellen ein größerer Unterschied sichtbar (gefühlt 95% der Texturen ändern sich nur auf Subpixel ebene) aber das unterscheidet sich halt deutlich von z.B. Doom Eternal welches stark auf Virtual Textures setzt und wo man eben erst mit den niedrigsten Einstellungen überhaupt eine Veränderung der Texturqualität sehen kann.

Auch allgemein scheint sich beim Memory Management viel optimieren zu lassen. Dying Light 2 hat den VRAM Bedarf mit Raytracing zuletzt auch nochmal deutlich reduzieren können...


Nvidia hat wohl darauf gesetzt, dass sich Virtual Textures und Direct Storage viel schneller duchsetzen.
So hat man eben fröhlich kostenoptimierung betrieben und sich gedacht "der VRAM wird in zukunft eh locker reichen" - non issue.

Aber man sieht ja was daraus geworden ist. Es gibt auch aufgrund der Situation in den letzten zwei Jahren immernoch überweigend CrossGen Spiele, die auf konventionelle Streaming Techniken setzen und so läuft halt der VRAM mit 8-10 GB hin und wieder mal über, wenn man versucht, ältere Engines nochmal mit verbesserter Grafik zu pushen.


Wie man das bewertet muss am Ende jeder selbst entscheiden. Ich bin mir ziemlich sicher, dass sich das Problem entspannen wird, je moderner die Engines werden. Bis dahin wird man aber auch immer wieder Spiele sehen, wo der Speicher nicht reicht. Wer also heute auf der sicheren Seite sein will, für den sind 8-10 GB aktuell einfach zu knapp und man muss den ein oder anderen Regler bedienen.
 
  • Gefällt mir
Reaktionen: novemberkind und dampflokfreund
Berserkervmax schrieb:
Um welches Spiel geht es hier..Genau...und was steht da ?
"10 GB Vram sind nicht genung" ... für Geil

Somit...10GB = Fehlkauf
Das was wir alle immer gesagt haben...
WARUM hat die 3080 nicht 16GB....
Ergänzung ()


Wofür hast du eine 3080 gekauft?
Um jetzt schon die Grafik runterzuschrauben weil du NUR 10GB Vram hast...

Schon nicht so Geil oder?
Ergänzung ()


Mit 12 oder 16GB könnte man das sehr wohl...
Einzig der Vram ist eben mit 10 Gb zu klein..
Ergo 3080 mit 10GB = Neukauf nach 2 Jahren...
Die Karte gibt es doch aber auch mit 12 GB. Und wer der Meinung war mehr Speicher zu brauchen, der konnte den auch mit der 3090 kaufen. Verstehe dein Problem nicht?!
 
C.J. schrieb:
Ganz so einfach sieht das für mich nicht aus. Reflexionen in Spiderman kosten bei AMD z.B. ähnlich wenig wie auf Nvidia.
Ja- Das ist, weil AMD eben mit Light- Raytracing- Loads gut umgehen kann.
C.J. schrieb:
Bei mittleren Schatten ist der Abstand auch noch kaum größer als ohne RT. Aber bei Schatten "Hoch" oder "Sehr Hoch" fällt die Leistung bei AMD ins Bodenlose.
Genau- Weil eben die schwächere RT Leistung dann überproportional zum Tragen kommt. Bei AMD kommt es dann vermehrt zum "stall" also zu Wartezuständen in den Pipelines.

C.J. schrieb:
Es gibt ja nicht "den" RT-Core. Ray-Intersections kann AMD auch in Hardware.
Ja- Aber nachwievor im Wechsel mit anderen Einheiten. nVidias Lösung ist dediziert.

C.J. schrieb:
BVH-Traversal kann AMD angeblich nicht als FF, dafür aber Nvidia.
Das lässt man auch bei AMD normalerweise über die Karte laufen. Ist performanter...

C.J. schrieb:
Ist das der Bottleneck bei den Schatten? Oder funktioniert der IF-Cache von RDNA2 nicht gut, weil die BVH-Checks zu viele Misses erzeugen und die Leistung deswegen an der im Vergleich zu Nvidia deutlich geringeren Speicherbandbreite hängt?
Grundsätzlich ist eines der Hauptprobleme von RT die Divergenz bei Berechnungen. Das schreddert den gesamten Cache bzw. dessen Effizienz. Deswegen wird vermehrt Wert auf Ray- Sorting gelegt, so dass man wenigstens schubweise cachebare Workloads hinbekommt. Das steigert die Effizienz enorm.

C.J. schrieb:
Sorgen BVH-Queries gar zu einer Cache Pollution, die auch die Hitrate für andere Zugriffe runterzieht? Mit Ada und RDNA3 kommen auch noch beworbene Reordering-Features hinzu, die bei Ada bisher zumindest noch keinen Effekt zu haben scheinen, weil sie vom Entwickler explizit angesprochen werden müssen (?).
Beide Hersteller liefern in der neuen Generation neue Wege, um die schlimmsten Problematiken zu entschärfen. Aber ja- Nervig ist, dass die Implementation meist explizit für jeden einzeln erfolgen muss.
Derzeit ist man noch extrem in der forschungs, findungs- und Standardisierungsphase.

C.J. schrieb:
Natürlich ist mehr dedizierte Hardware am Ende immer besser, aber sie kostet auch Fläche und treibt die Kosten nach oben. Von daher finde ich es nicht "schlimm" nur das für die Praxis Nötige zu tun und worst cases zu ignorieren.
Schlimm ist da nie irgendwas. Es geht da halt einfach rein um Performance und zu welchem Preis sie einem geboten wird.

C.J. schrieb:
Sorry, falls das falsch rüberkam: Ich meinte immer den Unterschied zwischen RT Schatten Mittel und (Sehr) Hoch. Dass gegenüber RT Off viele Schatten (in Form von Umgebungsverdeckung) dazu kommen, ist mir schon klar. Aber mittlere Schatten gibts ja relativ günstig bei beiden.
Dann einfach RT Schatten auf Mittel nehmen und die für einen selbst passende Performancestufe genießen.
Genau dafür geben sich die Entwickler die Mühe und bauen solche Regler ein.

Ist eben der Vorteil vom PC. Man kann sich die Hardware und die Software so konfigurieren, dass es für einen den in allen Belangen besten Kompromiss darstellt.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Mimir
Lübke82 schrieb:
Die Karte gibt es doch aber auch mit 12 GB. Und wer der Meinung war mehr Speicher zu brauchen, der konnte den auch mit der 3090 kaufen. Verstehe dein Problem nicht?!
Ich habe kein Problem weil RTX3090...aber die Leute die sich habe "verarschen" lassen von einer "High End" 10GB Vram GPU.
 
  • Gefällt mir
Reaktionen: el_zoido
mibbio schrieb:
Auch A Plague Tale: Requiem scheint da in der Hinsicht sehr optimiert zu sein. Das bleibt selbst un UHD mit maximalen Texturdetails noch unter 8GB und siehts trotzdem super aus.
https://www.computerbase.de/2022-10...t/2/#abschnitt_vram_wird_nicht_viel_benoetigt

So siehts aus. Fairerweise muss man sagen, dass das kein Open World Spiel ist, dafür ist die Detaildichte bei Plague Tale aber auch enorm.

Plague Tale zeigt jedenfalls schonmal in welche Richtung es da gehen wird. Und das ganze läuft noch ohne Direct Storage und co.


Und ich will hier keinesfalls überteuerte Hardware mit zu wenig Speicher verteidigen. Ich will einfach nur darauf hinweisen, dass es auch jetzt schon sehr viel effizienter geht und in Zukunft wohl nochmals sehr viel effizienter sein wird.
Aussagen von wegen "10 GB sind heute schon zu wenig = fakt" halte ich deswegen für ziemlich schwierig...
Das ist richtig und falsch zugleich. Je nach Sichtweise.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: baskervil77
Berserkervmax schrieb:
Ich habe kein Problem weil RTX3090...aber die Leute die sich habe "verarschen" lassen von einer "High End" 10GB Vram GPU.
Wieso verarschen lassen? Kann ja jeder selbst seine Waffel anstrengen und sich denken was man benötigt. Das der Speicherbedarf eher ansteigt als sinkt kann sich jeder selber denken. Vielen reichen locker die 10GB aber nunmal.
 
Hi,

Ich finde diesen "mies optimiert" Streit immer sehr unterhaltsam, vor allem da er in der Regel eigentlich aus Richtung NVIDIA/Intel erschallt, wenn mal ein Spiel/Programm besser auf einem AMD-Produkt läuft.

Irgendwann muss doch mal klar sein, dass es natürlich mit Optimierung für einen Hersteller zu tun hat, wenn es auf seiner Hardware extremst gut performed. Ist so, ist nicht gerecht, aber muss man irgendwie mit leben lernen! ;) Achja, die jeweils von einem Spiel/Programm favorisierte Seite sollte aufhören das als Beweis zu nehmen, oder laut zu feiern. Es ist nämlich eigentlich was trauriges, da es an die PC-Steinzeit erinnert.

Ich persönlich sehe bei den Grafikkarten einen Patt, der scheinbar keinem aufgefallen ist:

RTX3XXX haben erst in den höheren Preisregionen mehr als 8 GB, die 3060 12 GB mal ausgenommen, und haben somit mit Nachladerucklern zu kämpfen. Die RX 6XXX Karten ab der Mittelklasse haben genug VRAM, aber kämpfen halt mit Raytracing.

Somit müssen, zumindest bei den Mittelklasse-Karten, BEIDE Seiten Kompromisse eingehen, was die Grafikeinstellungen betrifft.

Was mich eine Augenbraue hochziehen lässt und aufzeigt, dass es eine starke Optimierung für NVIDIA inner hat, ist die Rasterizing-Performance. Hier sind die RX6XXXer zu den NVIDIA-Pendants normalerweise mindestens gleichwertig, wenn nicht sogar eher überlegen.

Ich persönlich bin übrigens einer derjenigen, die in 1080p spielen und damit glücklich sind. Meine Entscheidung für die 6700XT war, natürlich neben dem ebenso preislichen Gesichtspunkt, genau daran orientiert.

Gruß

Alef
 
W0dan schrieb:
Plague Tale zeigt jedenfalls schonmal in welche Richtung es da gehen wird. Und das ganze läuft noch ohne Direct Storage und co.

Und trotzdem haben 80% des Threads rumgeheult, dass die Anforderungen zu hoch sind. Die Erwartungshaltung scheint da eher zu sein, bei den Hardwarepreisen länger Ruhe zu haben als früher. Dabei realisieren die meisten nicht, dass die sogenannte Currentgen mit zwei Jahren Verzögerung jetzt gerade erst anfängt, seitdem die Altlasten der Konsolen-Lastgen über Board geworfen werden.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Chilisidian schrieb:
Und trotzdem haben 80% des Threads rumgeheult, dass die Anforderungen zu hoch sind.

Womit sich aber auch wieder zeigt, dass mit ner modernen Engine wohl GPU Leistung vor Speicher limitiert.
Aber da schaffen ja DLSS und FSR aktuell ganz gut Abhilfe.
 
Wo sind die 4K RT Benchmarks???
Absolut mäßiger Test, die 4090 kann sich ja gar nicht von der 4080 absetzen, da CPU Limit!

Schwach und albern!
Wieso testet ihr mit DLSS in 4K???
 
Alefthau schrieb:
RTX3XXX haben erst in den höheren Preisregionen mehr als 8 GB, die 3060 12 GB mal ausgenommen, und haben somit mit Nachladerucklern zu kämpfen.
So als pauschal Aussage...einfach nein.
In der Regel fehlt es den Karten, in den Regionen in denen der VRam ausgeht, eher an Leistung.
Schon in 1440p reicht auch die RX 6800/16GB nicht mehr um überall maxed out genug FPS zu generieren.
 
Zuletzt bearbeitet:
Im Gegensatz zum Vorgänger funktioniert hier Nvidia-Reflex mit der RTX 2000-3000er Serie.

Beim Vorgänger nur mit der 4000er Serie.

Das Game läuft absolut flüssig FullHD (360Hz) DLSS Quality und höchsten Details (12900KS/RTX 2080TI).

Auf Ebene der Hochhäuser um die 120FPS / knapp über der Straßenhöhe 80-90 fps manchmal nen ausreiser runter bis auf 69 FPS > aber zu keinem Zeitpunkt stockt das Game auch nur eine Millisekunde.

Also bereits ohne Patch läuft das Game hier 1A.

Ergänzung ()

KingZero schrieb:
Das Spiel kriegst du auf cdkeys.com für 34€.

Dann bitte bei nem ganz offiziellen Händler:

voidu.com für 34,99 € (bei jedem Kauf gibt es noch ein Guthaben für den Store).

Coupon Code: BUY30 oder FLASHSALE30
 
Zuletzt bearbeitet:
Berserkervmax schrieb:
Man kann sich das natürlich auch schön reden aber 10GB waren schon beim erscheinen der GPU zu wenig und wurde oft genung bemängelt.
Das stimmt. Die 10 waren schon zu release nicht schön. Hätte mir die Karte fast gekauft damals. Wollte aber dann doch warten, vielleicht fällt ja der Preis noch, aber dann ging der Mining-Wahnsinn los.
Jetzt hab ich ne 3090 Ti.
Übrigens, wenn man die letzten Resident Evil Spiele ganz hochschraubt wollen die knapp 15GB Vram.
 
  • Gefällt mir
Reaktionen: Berserkervmax
ben12345 schrieb:
Ach man ich will ja AMD kaufen weil die Nvidia Preise so ekelhaft sind aber immer wieder wird deutlich warum sie mit diesen Preisen durchkommen.
Das ist aber nur einem ganz kleinen Teil der CB Publikums klar. Meist wird gegen RT geschossen und behauptet "bringe ja nur geringfügig mehr BQ und ist unnütz" , aber gleichzeitig wird wegen Vram gepoltert, er reiche für ultra Einstellungen nicht mehr aus.

In dem Spiel braucht man mit einer aktuellen AMD Karte nicht mal an RT denken. Und das ist auch der Grund warum Nvidia die Preise ansetzt wir sie sind.

ben12345 schrieb:
Klar, jedes Spiel läuft entweder bissl besser oder bissl schlechter bei diesem oder jenem Hersteller, nur so Totalausfälle sehe ich so gut wie immer nur bei AMD.
Das wird grundsätzlich geleugnet oder gesagt RT bringe keine bessere BQ.
Ergänzung ()

Kollo schrieb:
Ist daran AMD schuld oder der Spiele-Entwickler?
Hat das auch jemand bei Assassin's Creed Odyssee so gefragt? Nein.
Es gibt extrem viele Spiele in denen eine RTX 3080 vor der 6900XT liegt.
Selbst bei Launch war die 3080 in den meisten Tests mindestens gleichauf.
Ergänzung ()

schkai schrieb:
Von welcher Auflösung sprechen wir hier eigentlich? Das geht aus dem Artikel leider nicht hervor ? Reichen die schon bei FullHD nicht aus oder erst bei UHD?
Erst bei UHD..., aber so wie ich das sehe, testet man auch nicht mit maximieren RTvSettings.
Ihr bevorteilt ganz klar AMD Karten, weil ansonsten wohl das Forum rebelliert?!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ben12345
Zurück
Oben