Test Spider-Man: Miles Morales im Test: Noch spektakulärer und GPU-fressender als das Original

Aber sowas sinnloses wie eine 3060 krüppel Chip Karte mit wahnwitzigen 12GB...
mit der man aber im Gegenteil zu 8GB VRAM Flight Simulator fehlerfrei spielen kann, wenn man alle Regler nach rechts schiebt.
Dann hilft auch kein 3060Ti- oder 2080- Grafikkchip.

High on Life wird auch mindestens 8GB VRAM mit Raytracing haben wollen.
 
Thepunisher2403 schrieb:
Na wenn du meinst das es pauschalisierung is...bitte is deine sache....
Wenn du in deiner Aussage von "ihr" redest, ist das eine Verallgemeinerung und unterstellst damit allen, die RT aktuell nicht für wichtig erachten, dass diese ihre Meinung ändern würden, wenn AMD dort führend wäre. Und dass das eben nicht so ist, zeigt ja allein mein Beispiel schon.
 
Das man es mit den Strahlen übertreiben kann zeigt dieser Titel für mich ganz gut.
Ich meine zB. den Boden der "Marmorhalle" oder auch die Autos in den Straßen.
Es wirkt dort so, als hätte man Spiegel statt schwarzen "Marmor" auf dem Boden und jedes Auto in der Stadt sei frisch aus einer acht Stunden Polierorgie gekommen.

Sicher gibt es Momente, zB. bei Nacht und entsprechender Beleuchtung, wo man im Reallife ähnliche Bilder erzeugen kann. Trotzdem ist hier mMn. RT zu stark eingesetzt und somit auch zu anspruchsvoll für die letzten Generation gewählt worden.

Miles Morales aufm PC ist kein Titel, wo man zwingend RT auf Max hauen muss und das beste (realistischste)
optische Erlebnis zu haben.

Abschließend würde ich mir wünschen, wenn das Game schon den Speicher voll haut beim Verändern der Grafikoptionen, dass es einen kurze Benchmarksequenz geben würde, um den persönlichen Sweetspot ohne Neustarts hinzufrickeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480
Ich finde den Raytracing Test im Bezug auf die Ada Karten leider ein wenig unglücklich.

Praktisch gesehen liegt die 4080 in allen 3 Auflösungen auf 4090 Niveau. Hierbei ist das Problem, dass es so gesehen eigentlich nur 2 Auflösungen sind, da DLSS Quality in UHD ja 1440p entspricht und entsprechend die Performance nah beinander am nativen 1440p liegt.

Mir würde da tatsächlich ein nativer UHD Test mit "optimierten RT Einstellungen" fehlen. Der wäre auch wichtig, um in etwa UWQHD einordnen zu können.

So wie ich das sehe wird in 4k ohnehin niemand (auch nicht die 4090 Besitzer) mit max. und RT max. spielen wollen.
Und DLSS scheint diesmal auch nicht sinnvoll zu sein aufgrund der Bildqualität.
 
Tyr43l schrieb:
Es wirkt dort so, als hätte man Spiegel statt schwarzen "Marmor" auf dem Boden und jedes Auto in der Stadt sei frisch aus einer acht Stunden Polierorgie gekommen.
Das ist auch mit ein Grund, warum mich Raytracing derzeit nicht wirklich intessiert. Viele Spiele setzen Raytracing (noch) hauptsächlich als Showeffekt ein und reduzieren das Features dann meist auf auffällige und teils unrealistische Spiegelung.

Die wenigsten Spiele nutzen das dezent, um generell die Beleuchtung natürlicher wirken zu lassen, wie beispielsweise Metro Exodus. Das springt einem eben nicht so direkt ins Auge wie extreme Spiegelung und ist daher weniger werbewirksam.
 
  • Gefällt mir
Reaktionen: Tyr43l
@mibbio
Zum Glück lässt es sich anscheinend vernünftig abstufen und damit weniger aufdringlich und fordernd zu sein.

Die Texturen find ich aber schon echt sexy und knackig scharf auf dem PC,
auch wenn ich diesen Titel sicher nur auf der PS5 spielen wollen würde.

Der PC ist doch klar FPS- und isometrische Ansicht Land.
 
.Sentinel. schrieb:
Bei welchem Titel soll das der Fall gewesen sein? Subpixelebene?
Mir ist Crysis 2 im Gedächtnis geblieben:

Am Ende ist es natürlich die Entscheidung der GameDevs. Ich will damit nicht behaupten, dass bei Spiderman sowas ähnliches gemacht wurde um AMD schlecht aussehen zu lassen. Generell finde ich, dass die verschiedenen Raytracing-Implementierungen der GPU-Hersteller (inkl. Intel) zu wenig erforscht sind, um wirklich sagen zu können, wer bei was Probleme hat und warum. Ich musste nur wegen der infinitesimalen Unterschiede bei den RT-Schatten bei extremen Performance-Impact an die alten Tessellation-Geschichten denken.
 
  • Gefällt mir
Reaktionen: Epistolarius
ben12345 schrieb:
Ach man ich will ja AMD kaufen weil die Nvidia Preise so ekelhaft sind aber immer wieder wird deutlich warum sie mit diesen Preisen durchkommen. Klar, jedes Spiel läuft entweder bissl besser oder bissl schlechter bei diesem oder jenem Hersteller, nur so Totalausfälle sehe ich so gut wie immer nur bei AMD. Da schreckt es mich irgendwie immer noch sehr ab 1000 Euro für ne 7900xtx auszugeben.
…550€ reichen doch für eine PS5 😉
 
anappleaday schrieb:
Kaufe seit Jahren Nvidia aus zwei Gründen:

1. Treiber sind besser.
2. Nvidia hat mehr Geld und Einfluss und besticht dadurch mehr Spiele-Entwickler für sie zu optimieren.
Das heißt, du bist Teil des Problems :stock:
 
  • Gefällt mir
Reaktionen: DrFreaK666 und schkai
PeriQue1337 schrieb:
Wieso? Das ist doch individuell welche Spiele man spielt und welche Auflösung man spielt? Also ich bekomme es nicht mal ansatzweise voll.
Um welches Spiel geht es hier..Genau...und was steht da ?
"10 GB Vram sind nicht genung" ... für Geil

Somit...10GB = Fehlkauf
Das was wir alle immer gesagt haben...
WARUM hat die 3080 nicht 16GB....
Ergänzung ()

sethdiabolos schrieb:
Gibt es keine Einstellungen, die mit 10GB nutzbar sind? Ansonsten sind 10GB doch ausreichend, nur eben nicht gut....;) Abseits davon ist die 3080 jetzt ja auch schon wieder über 2 Jahre auf dem Markt. Da sollte man nicht erwarten, dass man 4K mit max. Raytracing etc. spielen kann.
Wofür hast du eine 3080 gekauft?
Um jetzt schon die Grafik runterzuschrauben weil du NUR 10GB Vram hast...

Schon nicht so Geil oder?
Ergänzung ()

sethdiabolos schrieb:
Gibt es keine Einstellungen, die mit 10GB nutzbar sind? Ansonsten sind 10GB doch ausreichend, nur eben nicht gut....;) Abseits davon ist die 3080 jetzt ja auch schon wieder über 2 Jahre auf dem Markt. Da sollte man nicht erwarten, dass man 4K mit max. Raytracing etc. spielen kann.
Mit 12 oder 16GB könnte man das sehr wohl...
Einzig der Vram ist eben mit 10 Gb zu klein..
Ergo 3080 mit 10GB = Neukauf nach 2 Jahren...
 
Matthias80 schrieb:
? Ist das der neue Begriff für low fps?
Nö, Realität, siehe Fazit von Wolfgang.

Schicke Texturen benötigen mehr als 8 GB VRAM​


Spider-Man: Miles Morales hat stellenweise sehr detaillierte Texturen, die auch einiges an Grafikkartenspeicher wollen. Und so kommt es, dass 8 GB nicht für ein gedankenloses Spielen ausreichend sind. GeForce-Grafikkarten mit dieser Speicherbestückung fangen zwar gut an, aber wehe, es wird eine Grafikoption geändert – dann läuft der Speicher sofort über. Und auch nach einiger Spielzeit läuft Miles Morales nicht mehr ganz so gut. Auf einer Grafikkarte mit nur 8 GB Speicher sollten schlicht sofort die Texturdetails reduziert werden.


Mit 10 GB und damit der GeForce RTX 3080 gibt es ohne Raytracing keine Probleme mehr. Mit den Strahlen ist die Grafikkarte aber sofort am Limit. Wer dann noch eine Grafikoption ändert, gerät ebenso sofort in den Speichermangel. Es ist zudem nicht ausgeschlossen, dass nach einiger Spielzeit der Speicher überläuft und die Performance schlechter wird. Daher lautet die Empfehlung für eine 10-GB-Grafikkarte, bei Raytracing die Texturdetails um eine Stufe zu reduzieren.


Mit 12 GB ist man durchweg auf der sicheren Seite. Native Ultra-HD-Auflösung bei maximalen Raytracing-Details läuft absolut fehlerfrei, auch wenn andauernd irgendwelche Optionen geändert werden.
 
  • Gefällt mir
Reaktionen: Berserkervmax
1668811482707.png

Also wären GeForce und Radeon bei gleicher Raster-Performance auch beim Raytracing gleichauf...

Einen großen Leistungsschub durch einen optimierten AMD-Treiber für ein Nvidia-Spiel erhoffe ich mir nach Spider-Man Remastered leider nicht.

Und mit älteren GPUs braucht man bei den Benchmark-Ergebnissen dann wohl nicht mehr ankommen... Testergebnisse mit älteren Karten und niedrigeren Presets wären dennoch interessant zu sehen gewesen.
Ergänzung ()

C.J. schrieb:
Mir ist Crysis 2 im Gedächtnis geblieben
Seit der Crysis 2-Geschichte wird Tesselation bei mir eben einfach per Treiber global auf 8x oder 16x limitiert. Einen wirklich großen optischen Unterschied hat daraus eh nie ergeben.

Viel problematischer sind da alte PhysX und GameWorks-Features die schön aussehen aber auf AMD praktisch nicht laufen, auch wenn die CPU und GPU-Hardware heute mehr als leistungsfähig genug dafür wäre. Da sehe ich das Problem aber eher bei den Entwicklern/Publishern.
 
Zuletzt bearbeitet:
GameOC schrieb:
…550€ reichen doch für eine PS5 😉
30 fps geb ich mir nicht mehr und der 60 fps Mode sieht deutlich schlechter aus auf der Ps5. Kann man das Teil überhaupt halbwegs normal kaufen mittlerweile? Hab vor einigen Monaten aufgehört es zu versuchen weil scheinbar alles was mich interessiert mit besser Optik/Performance auch für den PC kommt.
 
Berserkervmax schrieb:
Um welches Spiel geht es hier..Genau...und was steht da ?
"10 GB Vram sind nicht genung" ...
Ich hab in Wqhd bei MEINEN Spielen keine Probleme und das ist doch das entscheidende. Ist doch kein Fehlkauf weils in einem Game nicht reicht was man nicht spielt 🤔
 
  • Gefällt mir
Reaktionen: Lübke82
Czk666 schrieb:
Oft CPU Limit (6800/5600x) 1440p, alles auf hoch/sehr hoch. RT hoch, Schatten mittel. Kein fsr. Habe ich fast durchgehend mind 60 fps. (Limit auf 60)
Das klingt gut! Habe mir heute eine 6800 aus dem Mindfactory Deal geschossen und die Spiderman Titel habe ich tendenziell schon auf der Wunschliste bei Steam. Aus dem Test hätte ich jetzt auch rausgelesen, dass man die generellen Details etwas runterschrauben können müsste, etwas RT dazu schaltet und die 6800 dann in 1440p ganz gut zurecht kommen müsste.

Mich hat dieser Test schon wieder etwas ins Grübeln gebracht, was so die Wahl der neuen GPU betrifft. Mit der 3060 bin ich eigentlich ganz zufrieden, aber für WQHD schadet mehr halt auch nicht. Die Wahl ob AMD oder Nvidia schien für mich mal einfacher gewesen zu sein. Über alle Spiele hinweg ist deutlich zu erkennen, dass AMD in RT klar das nachsehen hat. Wenn ich jetzt aber nur danach schaue, welche (RT-)Leistung bekomme ich fürs Geld, dann kann ich die 6800 für 499€ aber auch fast nur mit einer 3060ti vergleichen (Customs liegen preislich ähnlich, die FE gibt es bei Nbb für 439€, dafür sind keine Spiele dabei). Wenn ich noch bisschen was drauf lege, ist eine 3070 noch drin, die in RT aber mit der 6800 jetzt auch nicht wirklich den Boden wischt, das fängt dann bei der 3080 so richtig an. Da sind wir dann preislich aber auch mittlerweile an der 6900XT vorbeigezogen.

@Wolfgang
Ich weiß nicht, ob es nur für mich interessant ist, aber so eine Art optimiertes Setting hinsichtlich Optik/Performance in den Spiele Benchmarks fände ich super. Muss ja nicht bis ins letzte Detail, aber oftmals gibt es ja Einstellungen, da bringt Ultra optisch fast gar nichts, frisst aber sehr viel Leistung. Mal so als Beispiel hat Digital Foundry die Einstellungen bei Cyberpunk sehr genau unter die Lupe genommen und mit deren Settings verliert man bei der Grafik nur ein Minimum und hat ein sehr ordentliches Performanceplus. Ich meine so um die 30% je nach System/Auflösung. So kommt es, dass da ne übertaktete 3060 in 1440p mit DLSS sogar RT Beleuchtung und Reflexionen zulässt bei rund 50 FPS. Mit den eingebauten Presets kann man das knicken. Wenn das vom Aufwand her unattraktiv ist, kann ich das auch verstehen. Allein für die Gegenüberstellung von Grafikkarten tut das ja eh nichts zur Sache. Das optimierte Setting würde ich auch nur auf jeweils einer AMD und Nvidia Karte benchen, damit man ungefähr weiß, was da noch über die Settings zu holen ist ohne zu viel an Grafikqualität zu verlieren.
 
Die 4090 hatte echt die neue 8800 gtx werden können oder gtx 1080 ti, die Leistung ist da, der Preis hatte bei 1.2 1.4 noch akzeptiert werden können. Naja
 
mibbio schrieb:
Das ist auch eine ziemliche Verallgemeinerung.(...)
Waaas? Eine Verallgemeinerung in einem Grafikkarten-Thread oO? xD
Im Ernst, die ganze Diskussion ist eine einzige Verallgemeinerung.
Ein Hersteller kann nicht schnell oder langsam sein, nur eine Karte.
Es gibt fast zu jeder Grafikkarte eine schnellere vom anderen Hersteller, mit Ausnahme von ein paar Topmodellen.

@topic
Ich finde wirklich, die Optiksteigerung ist den Performanceverlust nicht wert.
Ausnahmsweise aber nicht bei RT, das ist ja richtig Performanz, selbst mit meiner 6700XT könnte ich es einschalten, wenn's nicht maxed out sein muss.
 
Zurück
Oben