• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Spider-Man 2 im Test: Benchmarks mit 20 Grafik­kar­ten von Nvidia, AMD und Intel

Wechhe schrieb:
Spannend, dass die Hardware Anforderungen immer absurder werden bei gleichzeitigem Ansteigen der Preise.
Ja, aber man muss auch bedenken, dass hier immer die Maximalsettings getestet werden. Stellt man stattdessen auf "Hoch" sollte das schon ganz anders aussehen.
Wechhe schrieb:
Dieses "alles muss sich spiegeln" Motto in einigen Spielen
Naja, irgendwie muss man die teuren GPUs doch auslasten? :D Und so sieht man die RT Effekte eben am besten.
Wechhe schrieb:
die Stimmung mit Licht und Farben und gute Texturen machen am Ende mehr aus, als die im Detail realistischer berechneten "Strahlen"
Ja, aber wenn ich das richtig weiß, ist das eben alles Handarbeit. RT sollte ja eigentlich gerade bei Belichtung den Entwicklern viel Zeit ersparen, in dem man das eben einbaut und fertig. Und realistischer muss nicht immer besser sein.

Ich verstehe auch bis heute nicht, wie Leute immer diese "ReShade" Mods nutzen können, die für mich absurd unrealistisch aussehen. Gerade bei GTA5 ist mir das damals aufgefallen.
 
  • Gefällt mir
Reaktionen: Pisaro und Wechhe
Gerade gedacht, dass ein Spiderman Game mal wieder ganz geil wäre und der Spiderman Remastered Teil wäre da der logische Schluss, weil ich es noch nicht kenne. Aber das kostet einfach immernoch 60€? Also als Key dann knapp über 40€ für ein über 2 Jahre altes Spiel.
Wo ist der Preisverfall, dass so Zeug fürn 20er rausgehauen wird? Ist bestimmt so teuer, weil gerade schön Marketing mit dem zweiten Teil gemacht wird und andere Leute auch so tolle Ideen haben ;)
 
  • Gefällt mir
Reaktionen: Shir-Khan und Mysterion
Kuestennebel79 schrieb:
aber 16 GB ist ja auch bereits limitierend
In diesem Spiel nur für AMD, nicht NVIDIA.
Ergänzung ()

habla2k schrieb:
In einem Jahr spätestens bekommt man mit der fast 2.000€ Karte dann schon Probleme.
Wie kommst du darauf?
Es gibt nur 3 Grafikkarten die mehr als 16GB VRAM besitzen und diese dürften maximal 0,1% aller Spieler abdecken.
Die Spielehersteller werden sich also hüten die 16GB VRAM zu knacken.
Das hier sieht ja eher nach mangelhafter Optimierung aus... aber alles unter 7900XTX ist ja sowieso zu lahm, da macht der VRAM ja eh keine Probleme.
 
Naja was ich interessant finde das es schon 2 Spiele nacheinander sind wo AMD so schlecht auch ohne RT abschneidet. 🤔
Die Frage ist ob es AMD liegt oder an den Entwickler die ohne Unterstützung kein Finger krum machen, etwas besser und schlechter gibt es immer wieder, aber bei KCD2 und SM2 ist das schon extrem. Das es nicht die Regel ist sieht man schön bei MH Wilds, bei mir laufen Spiele trotzdem alle gut, nur ist es schon ernüchternd wenn man die Balken sieht. 🤨
Da muss AMD ran wenn die ihre Karten verkaufen will 🤔
 
Einfacheres Ray-Tracing hin oder her. Immerhin zeigen die Benchmarks, dass die Radeons bei einer vernünftigen Optimierung deutlich besser gegen die Geforces abschneiden als in typischen RT-Titeln sponsored by Nvidia. Bei letzteren ist der Leisungsunterschied mitunter absurd groß. Da landet dann eine RX 7900 XTX auch mal hinter einer RTX 4060...
 
Ist das mit dem Arc-Speichermanagement generell problematisch? Nicht zwingend in dieser Ausprägung, mind you. Das wäre ja nicht so gut für die B570/B580. Insbesondere die B570 -- denn viel Puffer hat die mit 10GB ja nicht. Woanders schnitt die Arc B580 auch am Schlechtesten ab. Sowohl mit als auch ohne RT war sie noch hinter einer RTX 3050. Und das in Full-HD.



Sollte die RTX 5060 tatsächlich wieder 8GB haben, wäre das so was von Steilvorlage für AMD. Sie müssen sie nur verwerten...
 
Zuletzt bearbeitet:
@Svennc
Das war doch bei der ersten Generation der ARC Karten auch so, dass die 16 GB "praktisch" nichts wert waren, weil die Architektur einfach viel mehr VRAM braucht als die Konkurrenz.

Und Intel würde sicher nicht 16 GB bei so niedrigen Preisen verbauen, wenn es nicht bitter notwendig wäre.

Dass eine unter speichermangel kotzende 3060ti die 16 GB Arc schlägt ist schon richtig hart.
Das Spiel erzeugt bei Speichermangel nicht direkt Ruckler, aber die performance geht deutlich zurück. Die 3060ti dürfte hiervon definitiv bereits betroffen sein. Und trotzdem sieht Arc kein Land.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Svennc
Kuestennebel79 schrieb:
"Erst ab 20 GB VRAM wirklich problemlos"
Ich hab eine ganz einfache Lösung für das Problem, solche Spiele einfach nicht kaufen.

Aber ich weiß in diesem Forum mag man keine einfachen Lösungen.
Es müssen immer mehrere hundert oder tausend Euro ausgegeben werden sonst geht das nicht.
 
  • Gefällt mir
Reaktionen: stevefrogs, eXe777, ErbarmeHesse und 3 andere
Knobi Wahn schrieb:
3090, 3090TI, 4090, 5090, 7900XT, 7900XTX
Richtig 👍 hatte die gedanklich bereits gruppiert: 3090, 40/5090, 7900 :D

Preislich 3090/7900 >1000€ (3090 eh nur gebraucht) und NVIDIA aktuell >2000€

Und selbst die neuen AMD kommen ja scheinbar nur mit 16GB. Sehe hier keine Gefahr, dass Spiele in den nächsten 2-3 Jahren mehr als 16GB VRAM benötigen.
 
Loopman schrieb:
In diesem Spiel nur für AMD, nicht NVIDIA.

Wenn ich du wäre, würde ich mir nach dem Spruch gestern
Loopman schrieb:
Nicht in einem einzigen Test, weder bei CB, noch bei irgendwem anders waren 16GB VRAM irgendwann zu wenig. Fakt. ☝️

so richtig dumm vorkommen. :daumen:
 
  • Gefällt mir
Reaktionen: Pisaro, DiamondDragon, ElliotAlderson und eine weitere Person
Loopman schrieb:
dass Spiele in den nächsten 2-3 Jahren mehr als 16GB VRAM benötigen.
Na aber das tun sie doch jetzt schon. Klar, nur für die höchsten Settings, aber wofür kauft man sich sonst ne 5080?
 
  • Gefällt mir
Reaktionen: KuroSamurai117, ElliotAlderson, 9t3ndo und 3 andere
@habla2k Man muss aber unterscheiden. Moderne Engines brauchen deutlich weniger Speicher. Siehe UE5. Oder können mit Speichermangel sehr gut umgehen bzw. belegen einfach pauschal den kompletten VRAM und stellen sich dann selbst dynamisch darauf ein (Siehe Avatar und Star Wars Outlaws).

Auch Cyberpunk und Alan Wake 2 brauchen trotz pathtracing relativ wenig VRAM.
Auch Plague Tale braucht sehr wenig trotz modernster Grafik.


Es ist also eher so, dass moderne Engines sehr effizient sind, aber ältere Engines, mit legacy Technik sehr ineffizient sind.

Spider-Man würde ich als "legacy" technik bezeichnen, weil es vergleichsweise sehr viel VRAM braucht, obwohl die Spiewelt grafisch eher Mittelmaß ist und vor allem auch, weil das Raytracing extrem ineffizient ist und irrsinnig stark auf die CPU performance und Frametimes schlägt.

Zumal sich optisch seit der PS4 Version nicht viel getan hat. Klar, Auflösung und Detailgrad sind gesteigen, aber alles in allem sieht es nur wie aufpolierte last-gen Grafik aus und das ist 100 pro dem mittlerweile etwas angestaubten Grundgerüst geschuldet.

Das schlechte Framepacing mit RT und der hohe VRAM verbrauch erinnern fast schon an Hogwarts Legacy. Das läuft mit UE4 und da läuft RT auch wie ein Sack nüsse. Das passiert einfach, wenn man alte Engines so stark fordert mit Features die in der initialen Entwicklung nie vorgesehen waren. Die brechen dann unter der eigenen last zusammen und werden zum CPU und Speicherfresser. Das hat man in den letzten 20 Jahren schon so oft gesehen. Sobald eine engine dann grundlegend überarbeitet wird, bekommt man auf gleicher Hardware plötzlich deutlich bessere Grafik und deutlich flüssigeres Gameplay.


Ich würde also davon ausgehen, dass der VRAM bedarf in Zukunft stagnieren wird und je nach Spiel und Engine auch mal überraschend gering ausfallen wird. Ich denke Spiele die 16 oder gar 24 GB brauchen werden weiterhin die Ausnahme bleiben.

Praktisch sind ja auch die aktuellen Konsolen der limitierende Faktor. Den shock der steigenden GPU, CPU und VRAM anforderungen neuer Spiele durch den verdoppelten Speicher auf den Konsolen haben wir mittlerweile längst hinter uns. Bis zu den neuen Konsolen dürfte es also keine Überraschungen bei den Anforderungen mehr geben.
 
  • Gefällt mir
Reaktionen: stevefrogs, N0Thing und habla2k
Loopman schrieb:
Die Spielehersteller werden sich also hüten die 16GB VRAM zu knacken.
Nein, werden sie nicht. UHD ist eine Auflösung für High-End, also können die Spielehersteller erwarten, dass man auch mit High-End Karten in UHD spielt. Bei nVidia ist man aktuell aber der Meinung für Midrange Speicherausbau auch High-End Preise aufrufen zu können.

Man muss sich von Leuten wie dir ja auch in völlig sinnlose Diskussionen reinziehen lassen, nur weil man sagt, das eine 5080 wegen der 16 GB nicht mehr als 1300 € wert ist. Das muss man sich wirklich mal vorstellen, völlig absurd!

Loopman schrieb:
Und selbst die neuen AMD kommen ja scheinbar nur mit 16GB. Sehe hier keine Gefahr, dass Spiele in den nächsten 2-3 Jahren mehr als 16GB VRAM benötigen.
Du checkst es halt nicht. Das was AMD da bringt, sind keine High-End Karten für UHD Auflösung und die kosten auch keine 1300 €+.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Casillas
habla2k schrieb:
Na aber das tun sie doch jetzt schon. Klar, nur für die höchsten Settings, aber wofür kauft man sich sonst ne 5080?
Welche laufen denn auf den 80er Karten nicht wegen zu wenig VRAM?
Das hier getestete Spiel läuft auch in 4K mit 16 GB bei Nvidia sauber. Mir fällt jetzt kein Spiel ein, wo es wegen der 16 GB Stress gibt bei den 4080er. Nvidia konnte den VRAM Bedarf bei DLSS ja auch noch senken mit Version 4.
 
Und das nächste Spiel beidem die V-Ram-größe in 1440p und v.a. 4k sehr schnell zum Problem werden kann.

Eine Freude das alle neuen Karten aber mit maximal 16GB kommen. Egal ob NV oder AMD.
 
Thane schrieb:
Das hier getestete Spiel läuft auch in 4K mit 16 GB bei Nvidia sauber.
Sollte man aktuell 1600 € für eine Karte ausgeben, deren VRAM schon jetzt in einigen Spielen in UHD gerade so reicht? Woher willst du wissen, dass das auch die näcsten 3-4 Jahre so bleiben wird? Das die Karte nur 16 GB hat, dient doch nur dazu dass nVidia den Leuten in 6 Monaten nochmal eine 5080 Ti mit 24 GB für 1500 € UVP andrehen kann.
 
Capthowdy schrieb:
so richtig dumm vorkommen
Wieso? NVIDIA braucht nicht mehr als 16GB und bei AMD scheint es ja nur ein Optimierungsproblem zum Release zu sein. 🤷‍♂️
Ergänzung ()

Capthowdy schrieb:
Sollte man aktuell 1600 € für eine Karte ausgeben
Wenn du jetzt noch die Preise von Ebay nimmst, sind wir sogar teilweise bei 2000€. Wieso nennst du nicht die "normalen" Preise, die nach dem Ansturm zu Beginn wieder aktuell sein werden?
 
Loopman schrieb:
Wieso? NVIDIA braucht nicht mehr als 16GB und bei AMD scheint es ja nur ein Optimierungsproblem zum Release zu sein. 🤷‍♂️
Rede dir ruhig alles zurcht wie du es brauchst, argumentativ kam von dir ja schon gestern nichts mit Substanz, so auch hier wieder nicht. Ich kann darüber nur lachen. :daumen:
Ergänzung ()

Loopman schrieb:
Wieso nennst du nicht die "normalen" Preise, die nach dem Ansturm zu Beginn wieder aktuell sein werden?
Du hast mich gestern in eine völlig sinnlose Diskussion reingezogen, nur weil ich sagte dass eine 5080 wegen der 16 GB nicht mehr als 1300 € wert ist, und jetzt kommst du mir so? :lol:
 
  • Gefällt mir
Reaktionen: Maxysch
Zurück
Oben