Test Spider-Man: Miles Morales im Test: Noch spektakulärer und GPU-fressender als das Original

So Mal rein gedaddelt. Läuft in Gänze viel runder zu Beginn als der Vorgänger. Oft CPU Limit (6800/5600x) 1440p, alles auf hoch/sehr hoch. RT hoch, Schatten mittel. Kein fsr. Habe ich fast durchgehend mind 60 fps. (Limit auf 60) nur beim Central Park habe ich teils runter auf 45.
Die Texturen sogar auf sehr hoch. ;)

Die Kämpfe und Aufmachung sind wieder richtig spaßig.
 
VRAM ist doch immer so eine Sache.
Klar besser genug, mehr haben als nötig...
Aber sowas sinnloses wie eine 3060 krüppel Chip Karte mit wahnwitzigen 12GB...
Oder eine 3080 großer Chip Karte mit leider zu wenig VRAM.
Ja es gibt Spiele, Einstellungen wo eine 3080 10GB hinter ihren Möglichkeiten zurück bleibt.
Da hat NV einfach mal Mist gebaut.
Noch gibt es (soweit mir bekannt) kein Spiel was 16GB VRAM braucht...
Wenn es mal eins gibt... wird auch eine 6800(XT) dann aber Chip seitig zu langsam sein.
Es gibt ja auch unüberwindbare Abhängigkeiten, Speichergeschwindigkeit, breite des Speicherinterfaces, mögliche Größe des Speichers...
Irgendwann trifft es jede Karte!
Durch RT wurden die Karten eh neu gemischt... je nachdem wie die persönliche gewichtung liegt.
 
  • Gefällt mir
Reaktionen: magabarai, 7oNine und Lan_Party94
Immer dieses herumgeheule über den zeitverzögerten Release von Sony PlayStation Spielen auf dem PC. Ich kann es defakto nicht nachvollziehen.

Wenn Sony die Spiele direkt auf dem PC zeitgleich zur PlayStation releasen würde, dann würde Sony ihre eigene Plattform deutlich schwächen und Microsoft noch mehr stärken.

Fakt ist: Der PC erhält nach einiger Zeit die beste Version der ehemaligen PlayStation only Spiele. Mehr kann man sich als PCler eigentlich nicht wünschen. Es wurde bei allen Portierungen nochmal deutlich mehr als auf der PlayStation geliefert. Sei es 21:9 oder auch Raytracing auf deutlich höheren Niveau. Gerade 21:9 liefern gefühlt kaum PC Only Titel.

1-2 Patches und Miles Morales wird sich in der Riege der erstklassigen PC Portierungen aus dem Hause Sony einordnen.

Ich kann das Spiel durchaus empfehlen. Der Umfang ist jedoch deutlich geringer als beim ersten Spider-Man.
 
  • Gefällt mir
Reaktionen: Matthias80
Das Game frisst keine Grafikkarte. Läuft auch ohne!
Auf einem 5600G mit Onbaordgrafik
Also das Spielt scheint dahin gehend gut optimiert zu sein. Bin erstaunt.

Ja klar, kann man keine Wunder erwarten: Aber 900p mit FSR bei 32-40FPS ist okay. Das mit aktivem Freesync, sieht dann sogar recht flüssig aus.
Auf einem 6800H wird das sicherlich noch erheblich flotter laufen. Ich denke an 1080p mit FSR und 50-60fps.
 
Thepunisher2403 schrieb:
Das sagen dann die wo die Karte zu schwach ist für rt aber wehe es wäre bei amd besser dann is rt das über Feature....
Ist es aber nicht und somit ist und bleibt es vorerst ein Überfeature Nvidia Thema im grünen Lager. Wie toll doch eine 4090 für 2000€ ist gegenüber einer 1.000€ Karte der letzten Generation ist ließt sich ja nicht gerade selten hier...

Mag sein es wäre umgekehrt nicht anders, würde mir da aber eher mal an die eigene Nase fassen anstatt als Verteidigungsreflex immer zu behaupten andersrum wäre es ja nicht anders. So beginnen halt auch Kriege, ist also eine ziemlich dumme und rückständige Einstellung.
 
Zuletzt bearbeitet:
Testet lieber mit weniger aktuellen Karten und nehmt ältere Modelle, integrierte und das Steam Deck mit ihn die Tests auf... So nützt der Test doch den meisten von uns 0
 
  • Gefällt mir
Reaktionen: Markenprodukt, Shy Bell, Master Chief ! und 4 andere
Wolfgang schrieb:
Das würde gar keinen Sinn ergeben. Dazu müssten wir dann ja auch alle Tests mit eben allen Einstellungen machen und zwar bei jeder Grafikkarte.

vielleicht habe ich mich missverständlich ausgedrückt :)

Mein persönlicher Wunsch wäre es, dass wenn es zu einer Vermischung von Techniken wir Upscaling und der nativen Auflösung kommt - ich einfach NUR die Balken zu denen mit der nativen Auflösung ansehen kann.

Natürlich könnte man auch mehrere Diagramme machen - welche in denen nur die native Auflösung aufgeführt wird, und eines in dem alle Balken mit Upscalingtechniken drin sind.

Ich empfinde es als zunehmend unübersichtlich, wenn nativ, FSR, DLSS2.x und DLSS FG gemischt werden :/
 
eLdroZe schrieb:
Mir ist egal wer was kauft aber dass man halt die Realität nicht sieht ist ein anderes Thema.

Features die ich früher nie hatte, habe ich aber auch nie vermisst. Features die ich heute habe, wie gutes G-Sync oder DLSS oder so will ich aber auch nicht mehr vermissen. So ist dass eben wenn man was neues kennenlernt und es für gut befindet. :D

Das ist doch rein subjektiv.
Wie gesagt - wenn ich nach P/L zum Zeitpunkt des Kaufes den besseren Deal bei AMD bekomme, ist die Realität eben, dass AMD in diesem Preissegment zu dem Zeitpunkt des Kaufes besser ist. Da entscheidet dann höchstes noch der persönliche Geschmack.
Und ich muss mich korrigieren: Die Features die du nennst nutze ich auf AMD auch. Freesync habe ich nicht erwähnt, da das für mich kein besonders Feature ist und bei mir permanent aktiv ist, da unterscheidet sich doch nichts von G-Sync? Und FSR bzw. DLSS nutze ich sehr selten aber das unterscheidet sich nun auch nicht gravierend.
Ich habe im Zweitsystem (das System meiner Freundin) selbst eine 3060TI und konnte da jetzt keine besonderen Unterschiede feststelle. Dafür fehlt mir bei NV aber Chill. "Besser" ist eben wie gesagt relativ.

Meiner 3060TI hilfts ja nicht, dass z.B. die 4090 die derzeit beste Karte auf dem Markt ist. Das hat auf das Preissegment, das für mich interessant ist keinerlei Einfluss. Wie gesagt alles rein subjektiv.
Jetzt bloß nicht falsch verstehen, das soll gar kein Angriff sein und liest sich jetzt wahrscheinlich viel "bissiger" als es eigentlich gemeint ist. :D
 
Vielleicht werde ich alt, aber gibt es einen nennenswerten Unterschied zwischen RT Schatten Mittel und Sehr hoch? Ich klicke die ganze Zeit Screenshots hin und her, aber sehe da quasi keinen Unterschied. Mit Schatten auf Mittel läuft RT auf AMD halbwegs passabel. Reflektionen und Geometrie kosten bei Nvidia genauso viel Leistung, wenn ich auf die WQHD Frametimes gucke:

Ohne RT: 3080 25% vorne
Reflex Hoch: 3080 24% vorne
Reflex Sehr hoch: 3080 26% vorne
Reflex Geo Sehr Hoch: 3080 23% vorne

Aber die Schatten:
Mittel: 3080 34% vorne
Hoch: 3080 47% vorne
Sehr hoch: 3080 82% vorne

Die 3080 verliert durch Schatten quasi keine Leistung, die 6800 dagegen extremst. Ohne jetzt bashen zu wollen, erinnert das ein wenig an die absurden Tesselation-Level, die damals in Spiele eingbaut wurden. Da wurden Dreiecke auf Subpixel-Ebene noch weiter unterteilt, was keiner mehr sehen konnte, aber AMD-Karten komplett in die Knie gezwungen hat. AMD hatte damals extra einen Schalter im Treiber eingebaut, der global das Tesselation-Level auf 16x begrenzt, was optisch quasi keinen Unterschied gemacht hat, aber enorm Performance gebracht hat.
 
  • Gefällt mir
Reaktionen: ben12345, hurcos, Czk666 und 3 andere
@C.J. Nö du wirst nicht alt, es gibt sehr wenig Unterschiede. Bei Raytracing ist es nur wichtig, dass die Effekte aktiv sind. Dann gibt es oftmals einen großen Unterschied und dank geringeren Einstellungen geht es auch nicht so auf die Performance. Auf diese Weise kann ich selbst mit meinem 2060 Laptop fast alle Spiele mit Raytracing und 60 FPS zocken.
 
  • Gefällt mir
Reaktionen: Czk666
Das ist ja durchaus unglücklich, dass das Raytracing super funktioniert und einen dezenten visuellen Unterschied macht, aber das Upscalen nicht gut funktioniert. Und alleine mit RT reichen ja die 10GB meiner 3080 schon nicht mehr. Danke Nvidia für die 10GB btw.
Und warum hier in den Kommentaren eine 2300€ 4090 mit einer 700€ 6900XT verglichen wird, ist mir auch ein kleines Rätsel.
Es gibt Spiele, die funktionieren besser auf AMD und Spiele, die besser auf Nvidia laufen. Ob mans glaubt oder nicht, es ist nicht das Ende der Welt. Man schraubt einfach ein-zwei Optionen runter, die vermutlich sowieso kaum einen visuellen Unterschied machen und dann hat man mit beiden Herstellern seinen Spaß.
Wenn wir ehrlich sind, geben sich AMD und Nvidia zurzeit nicht viel, sodass es in den meisten Fällen gar keine Rolle spielt, ob man eine 3080 oder eine 6800XT hat.
Das tatsächliche KO Kriterium ist allerdings der unverschämte Preis der 4080/4090.
 
  • Gefällt mir
Reaktionen: cartassis, Czk666 und baskervil77
Ich werf mal den Preis als negativen Punkt in den Raum, vor paar Monaten kahm miles morales incl remaster von spiderman auf dem Markt sogar nicht mal so teuer als ps5 Variante.... Der pcler wird gut abkassiert für jeweils 49 Euro
 
Schade. Ich kauf mir jetzt sicherlich keine 4090, um ein Spiel zu zocken.
Dann wird's halt mal in ein paar Jahren für nen 10er geholt.
 
  • Gefällt mir
Reaktionen: Master Chief !
@Wolfgang & CB Kollegen,
ich würde mir für die Zukunft wünschen,

dass in neuen (Spiele) Tests bzw HW-Vergleichen auch die Intel Arc standardmäßig vertreten ist,
sofern euch die entsprechende Karte noch zur Verfügung steht natürlich.
Vielleicht könnt ihr auch das nachholen sofern mal wer Zeit & Lust hat.

https://www.tomshardware.com/news/spider-man-miles-morales-pc-performance-tested

PS: ich war diesmal tatsächlich schon fast überrascht,
wo sich die Arc A770 im vgl. zu Nvidia&AMD in dem Titel einordnet, mit aktuellem 3802 Beta-Treiber in 1440p (vgl. ohne & mit RT bzw Upscaling)

merkwürdig auch was passiert wenn man xess auf der a380 aktiviert ^^

dann werd ich mir das Spiel tatsächlich mal ansehen sobald es mal deutlich günstiger im Sale ist.
 
Zuletzt bearbeitet:
mibbio schrieb:
Das ist auch eine ziemliche Verallgemeinerung. Ich hatte ja vorhin schon geschrieben, dass mir die RT Performance egal ist, völlig unabhängig vom Hersteller, weil ich schlicht nichts mit RT spiele. Sonst hätte ich ja jetzt keine Radeon im PC sondern eine Nvidia.

Also hast du damit schon mind. ein reales Beispiel, dem deine Veralgemeinerung nicht stand hält.
Na wenn du meinst das es pauschalisierung is...bitte is deine sache....

Ich habe mich zu deiner Antwort schon geäußert...erstmal lesen....

Aber naja....
 
C.J. schrieb:
Ohne jetzt bashen zu wollen, erinnert das ein wenig an die absurden Tesselation-Level, die damals in Spiele eingbaut wurden.
Na wer hat die denn da eingebaut?

Da wurden Dreiecke auf Subpixel-Ebene noch weiter unterteilt,
Bei welchem Titel soll das der Fall gewesen sein? Subpixelebene?

AMD hatte damals extra einen Schalter im Treiber eingebaut, der global das Tesselation-Level auf 16x begrenzt, was optisch quasi keinen Unterschied gemacht hat, aber enorm Performance gebracht hat.
Ja- Wenn in einem Bereich eine Hardwareschwäche besteht, dann bewirkt eine gezielte Reduzierung dort auf Kosten der Qualität dort deutlich Performance herauszuholen...

Da hat AMD die Versäumnisse der Entwickler überpflastert.
 
  • Gefällt mir
Reaktionen: Lübke82
scryed schrieb:
Ich werf mal den Preis als negativen Punkt in den Raum, vor paar Monaten kahm miles morales incl remaster von spiderman auf dem Markt sogar nicht mal so teuer als ps5 Variante.... Der pcler wird gut abkassiert für jeweils 49 Euro

Jo, dafür fallen die Preise am PC aber auch deutlich schneller dank Keyshops und Gamepass. Insgesamt zockt man also auf dem PC deutlich günstiger, was die laufenden Kosten angeht.
 
  • Gefällt mir
Reaktionen: Czk666
Zurück
Oben