Test Spider-Man: Miles Morales im Test: Noch spektakulärer und GPU-fressender als das Original

Schade, dass ihr keine älteren Grafikkarten mehr testet. Turing und RDNA1 solltet ihr wieder aufnehmen, da wird es spannend, Unterschiede zu sehen sobald Spiele das DX12 Ultimate featureset nutzen und Raytracing Standard wird, das auf RDNA1 nicht verfügbar ist. Zumindest eine 2070 Super, 5700XT, 5600XT und 2060 sollten doch nicht zu viel verlangt sein. Eure Benchmarks sind leider so unbrauchbar für mich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardware_Junkie, aid0nex, fox40phil und 21 andere
Die Zielgruppe des Spiels würde mich ja brennend interessieren. Der 12 jährige mit der 2000 Euro Grafikkarte im System ? 😅
 
  • Gefällt mir
Reaktionen: aid0nex, fox40phil, magabarai und 26 andere
Tornavida schrieb:
Die Zielgruppe des Spiels würde mich ja brennend interessieren. Der 12 jährige mit der 2000 Euro Grafikkarte im System ? 😅
Nicht das schon wieder
Als ob jetzt 12 jährige ne 4090 hätten
 
  • Gefällt mir
Reaktionen: gesperrter_User und Ruebennase
Thepunisher2403 schrieb:
Das sagen dann die wo die Karte zu schwach ist aber wehe es wäre bei amd besser dann is es das über Feature....
ich lach mich grad kaputt.
bis später, mir tun grad die Bauchmuskeln so weh davon
 
  • Gefällt mir
Reaktionen: Traumsucher, Bert, da_exe und 7 andere
Legalev schrieb:
Treiber sind besser???
Bezweifel ich mal stark.
Habe AMD sowie Nvidia.
Da gefällt mir der AMD Treiber hundert mal besser
Optisch gefällt mir AMD treibermäßig auch besser also was das Overlay der Software angeht. Da ist Nvidia ne Katastrophe. Aber das ist eher unwichtig, was den Treibersupport der Spiele angeht wischt Nvidia leider immer noch den Boden mit AMD.
 
  • Gefällt mir
Reaktionen: Hardware_Junkie, Harpenerkkk, Bert und 8 andere
Kollo schrieb:
"Davon abgesehen ist noch die generell schlechte Performance von AMD-Grafikkarten zu erwähnen".

Ist daran AMD schuld oder der Spiele-Entwickler?
Die Schuldfrage wird den geneigten Käufer am Ende wenig interessieren.
 
  • Gefällt mir
Reaktionen: ben12345, gesperrter_User und Lübke82
Es wäre noch besser gewesen wenn man auch die INTEL Arc A750/A770 getestet hätte.
@Wolfgang
Warum ist diese GPU nicht im Test vorhanden ? Ok, hab einen wichtigen Satz übersehen, hat sich aufgeklärt :D
Die Redaktion plant, weitere Grafikkarten inklusive Intel Arc A770 in der Woche ab dem 21. November nachzureichen.
 
Zuletzt bearbeitet:
lol Fanboykrieg hier wieder, wo ist denn das Problem wenn eine teurere Karte schneller ist als die günstigere?:confused_alt:

Dann mache ich mal mit:
RX 6900 XT zersäbelt RTX 3070
Meine nächste Karte wird von AMD :hammer_alt:
 
  • Gefällt mir
Reaktionen: bullit1, fox40phil, The-Beast und 18 andere
Tornavida schrieb:
Die Zielgruppe des Spiels würde mich ja brennend interessieren. Der 12 jährige mit der 2000 Euro Grafikkarte im System ? 😅
Was hat das Spiel mit dem Alter zu tun? Animal Crossing ist kein FSK16/18 Titel und wird von vielen erwachsenen gespielt. Ich will gar nicht erst mit Pokemon anfangen!
Die Spiderman spiele sind super, dafür muss man keine 12 sein, man kann sogar mit 40+(bin ich zum Glück noch etwas von entfernt) Spaß dran haben - stell dir vor!
 
  • Gefällt mir
Reaktionen: WilloX1980, Quaussi, Harpenerkkk und 8 andere
Mit Sicherheit hatte NVIDIA hier wieder einen gewissen Einfluss gehabt. Mein aktueller Favorit erscheint erst nächsten Monat und das ist Callisto Protocol. Mit Spider Man kann ich überhaupt nix anfangen, da ich wahrscheinlich einfach nicht die Zielgruppe bin.
 
  • Gefällt mir
Reaktionen: elmareko, msv, SKu und eine weitere Person
Berserkervmax schrieb:
und schon ist 10GB VRAM nicht mehr genung...
Hat nicht lange gedauert....
Von welcher Auflösung sprechen wir hier eigentlich? Das geht aus dem Artikel leider nicht hervor ? Reichen die schon bei FullHD nicht aus oder erst bei UHD?
 
  • Gefällt mir
Reaktionen: Lübke82, DaLexy und AI94
Tornavida schrieb:
Die Zielgruppe des Spiels würde mich ja brennend interessieren. Der 12 jährige mit der 2000 Euro Grafikkarte im System ? 😅
Die freundlichen Spinnen von nebenan? Die Comics zu Spider-Man habe ich gelesen, als noch 640kB als völlig ausreichend galten, der letzte Titel war genial. LG aus Rom.
 
  • Gefällt mir
Reaktionen: Topflappen und lio
Berserkervmax schrieb:
und schon ist 10GB VRAM nicht mehr genung...
Hat nicht lange gedauert....

Gibt es keine Einstellungen, die mit 10GB nutzbar sind? Ansonsten sind 10GB doch ausreichend, nur eben nicht gut....;) Abseits davon ist die 3080 jetzt ja auch schon wieder über 2 Jahre auf dem Markt. Da sollte man nicht erwarten, dass man 4K mit max. Raytracing etc. spielen kann.
 
  • Gefällt mir
Reaktionen: Lübke82
ben12345 schrieb:
Da schreckt es mich irgendwie immer noch sehr ab 1000 Euro für ne 7900xtx auszugeben.
fuer 1000 Euro wirst du auch keine bekommen, mach dir keine Sorgen
 
  • Gefällt mir
Reaktionen: gesperrter_User, Cohen, fox40phil und 6 andere
Chesterfield schrieb:
Würde mich ja nicht ärgern dass die GPU Last steigt aber das Verhältnis Verbesserung und benötigte Hardware wird immer unverschämter. Wenn ich jetzt Crysis als Referenz nehme und die Grafik Steigerung z.b jetzt bei spidermann, ganz klar keine Verhältnismäßigkeit da
Mein Reden.
Ich verstehe es auch einfach nicht.
 
  • Gefällt mir
Reaktionen: ben12345, Corpus Delicti und Chesterfield
Jungs egal,hört auf zu streiten, das Spiel ist wieder mal kacke optimiert denke ich mal und DLSS3/FG wird von NV in den nächsten Tagen gefixt. War in der Beta vom MSFS auch so und nun Butter. Wenn ihr weiter beharrlich kein Ampere kauft kommen die ADA Features schneller als ihr denkt,dann passt das auch wieder.Es ist WE, also geht mal gepflegt paar Runden zocken. :daumen:
 
  • Gefällt mir
Reaktionen: Lübke82 und CrustiCroc
Tolles Spiel. Werde ich die Tage mal wieder in die PS5 schmeißen :)
 
  • Gefällt mir
Reaktionen: bluna, Eisenoxid, fryya und eine weitere Person
Aus Sicht von AMD-Gamern sicherlich enttaeuschend fuer einen PS5 Spiele-Port, der dann aber kein reiner zu sein scheint, denn da haette man (wegen der AMD-Konsolenhardware) ja eigentlich mit einer besseren Umsetzung fuer Radeon als fuer GeForce Karten rechnen koennen.

Gut, so schrecklich interessieren mich Spider-man Spiele auch nicht, aber falls ich doch einmal Lust darauf haette waere wohl Uebertaktung auf RX 6900XT Niveau (fuer UHD ohne RT oder maximal WQHD mit RT) angesagt, nicht wirklich verlockend und es bleibt zu hoffen, dass da AMD/RTG vielleicht treiberseitig noch nachbessern wird koennen.
Nur gut, dass der Speicher mehr als ausreichend ist und ja, 12GB werden sich wohl zunehmend in WQHD oder darueber als Minimum etablieren bei AAA Titeln in den kommenden Jahren.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Hat denn jemand schon das Spiel und kann kurz eine Rückmeldung geben, wie das Game mit RT in Hinblick auf die CPU läuft?
In Spider-Man Remastered war ich in UWQHD mit meinem 5800X3D eigentlich permanent im CPU-Limit, in der Open-World sind die FPS auf bis zu 60 FPS gedropt, trotz reduzierter Verkehsdichte und Personendichte sowie RT-Reichweite auf 6.
RT schein einfach die CPU zu fressen.
Optisch aber einfach mit RT um Welten schöner und missen möchte man es deshalb einfach nicht mehr.
 
Ganz ehrlich, für mich liest sich der Test sehr klar:

Die ganzen Bildverfuscher sollte man wieder weglassen.

Entwickelt lieber bessere Hardware und performantere Engines.
 
  • Gefällt mir
Reaktionen: aid0nex, cartassis, fox40phil und 5 andere
Zurück
Oben