• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Spider-Man 2 im Test: Benchmarks mit 20 Grafik­kar­ten von Nvidia, AMD und Intel

habla2k schrieb:
In einem Jahr spätestens bekommt man mit der fast 2.000€ Karte dann schon Probleme. Und man würde ja eigentlich annehmen, bei dem Geld hat man etwas Ruhe bzw. kauft zukunftssicher.
Ich weis nicht ganz woher diese Annahme in letzter Zeit kommt:
Wenn man ohne nachzudenken alle Grafikregler voll aufdreht wird man immer Probleme haben.
Das war schon immer so und wird vermutlich auch immer so bleiben.

Auch mit einer RTX 4090 konnte man nicht außnahmslos alle Spiele auf max. möglichen Settings in 4K flüssig spielen, ebensowenig auf deren Flagschiff Vorgängern wie den schon damals sündhaft teuren Titan Modellen.
Heute ist die Baustelle eben öfter der VRAM, damals war es eher die Rohleistung, wenn man einzelne Settings bis zum Anschlag aufdreht. Das lässt sich aber wie eh und je dadurch lösen, dass man einzelne, besonders leistungs-, bzw. in diesem Fall VRAM-hungrige Optionen eine Stufe runter regelt.
Keine Sorge, moderne Spiele sehen ja nicht gleich wie N64 Titel aus, nur weil man weil man von "Ultra" auf "(Sehr-)Hoch" geht.

Ich bin mir auch nicht sicher ob Nvidia sich, aber auch den Spielern, einen Gefallen getan hätte, wenn sie die neueste Generation mit deutlich mehr VRAM ausgestattet hätten:
Den dafür fälligen Preisaufschlag mal außen vor, wären Karten der x80 und x70 Range mit 24-32GB VRAM auch ungemein attraktiver für den ganzen KI-Sektor geworden, wo die Leute Nvidia gerade alle geeigneten Karten aus den Händen reißen, koste es was es wolle. Die Verfügbarkeit (und damit einhergehend die Preise) sind ja schon jetzt absolut mies und wenn ich daran denke, was wohl passieren würde wenn die Karten auch noch "günstige" Alternativen zu Nvidias Profi-Lineup wären, kommen bei mir dunkle Erinnerungen an die Cryptomining Zeiten auf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ErbarmeHesse
Thane schrieb:
Dann nenne mal konkret die Beispiele.

Aus dem Warhammer 40K Test:
Hier ist es aber völlig unklar, wie viel Speicher wirklich benötigt wird, es sind in hohen Auflösungen jedoch definitiv deutlich mehr als 8 GB. So fing nach einer längeren Spielzeit selbst eine GeForce RTX 4080 plötzlich an zu stocken, als eine einzelne Grafikoption verstellt worden ist – was erfahrungsgemäß ein Zeichen dafür ist, dass der Speicher auch so schon recht am Limit gewesen ist.

Aus dem Star Wars Outlaws Test:
Als absoluter VRAM-Killer im Test hat sich ausgerechnet Nvidias RTXDI herausgestellt, das den Speicherbedarf regelrecht explodieren lassen kann. So genehmigt sich die GeForce RTX 4090 in Ultra HD bei maximaler Grafikqualität ohne RTXDI rund 14 GB, mit RTXDI sind es dagegen satte 20 GB, was dann auch erklärt, warum die GeForce RTX 4080 Super beim Nachladen von Levelabschnitten aus dem Tritt gerät.

Aus dem Deathloop Test:
Nichtsdestoweniger ist vorstellbar, dass es selbst bei 16 GB nach eben noch längerer Spielzeit zu Problemen kommt.

Aus dem Avatar: Frontiers of Pandora Test:
Nach ein paar Wechseln quittierte die GeForce RTX 4080 dies nur noch mit einer einstelligen Framerate bis hin zum Absturz – der 16 GB große Speicher war übergelaufen, weil er beim Wechsel nie alle nicht mehr benötigten Daten gelöscht hatte.

Das ist nur, was mir aus dem Gedächtnis noch so eingefallen ist, es gibt sicher noch andere Beispiele. Bisher nichts gravierendes, aber auch dieser Test hier zeigt mal wieder auf, wo die Reise in UHD hingeht.
 
  • Gefällt mir
Reaktionen: MiroPoch, Casillas, Perdakles und 2 andere
Xes schrieb:
Heute ist die Baustelle eben öfter der VRAM,
Naja, ich erinnere mich noch an die GTX 580 Zeiten, wo auch immer die Diskussion auf kam ob 1.5Gb nicht eine Frechheit von Nvidia sind. Dann kamen die Customs mit 3Gb. Und das eine Lager hat immer darauf verwiesen, dass man UNBEDINGT eine mit 3Gb holen muss, weil es in "Zukunft" nicht reichen wird. Das andere meinte, dass es doch letztendlich zu funktionieren scheint.

Seit ich mich erinnern kann, war der Vram bei Nvidia immer an der Grenze. Aber seit ich mich erinnern kann, waren die Karten irgendwie dann doch wieder obsolet bevor der größere Vram was gebracht hätte. Selbst die GTX 970 die durch die 3.5 + 0.5 Gb so verhasst wurde, leistete viele Jahre gute Arbeit und hat für viele im Nachhinein einen Legendenstatus.


@Capthowdy Ich finds gut, dass du die Zitate nicht geschönt hast. Denn zwischen den Zeilen liest man dort auch raus, dass nicht alleine der kleine Vram das Problem ist, sondern die beschissen optimierten Engines die den Speicher nicht ausmisten. :) Nicht umsonst schwenkt die Industrie heutzutage immer mehr zu Programmiersprachen mit gutem Garbage-Collector. Speichermanagement ist ein großes Thema.
 
  • Gefällt mir
Reaktionen: Xes und DerMicha
syfsyn schrieb:
Sobald einer gpu der vram ausgeht bricht diese ein ziemlich Logisch und da hier explizit 1440p genutzt wird ist das kein Wunder.
Womit klar ist das dass Spiel min 12gb-16gb für 1080p braucht.
Stimmt nicht. Spiele es in wqhd mit maximalen Details und raytracing flüssig auf meiner 4070 TI. Der vram Bedarf beträgt ungefähr 11gb.:stock:
 
kachiri schrieb:
Auf YT findet man dagegen dann halt auch Benchmarks mit für die Karten realistische Settings.
Was für eine Vergleichbarkeit hat denn ein Test wo jede Karte die für sie "realistischen" Settings hat?
 
  • Gefällt mir
Reaktionen: Quidproquo77
Capthowdy schrieb:
Diese Speichermenge bekomme ich bei AMD und Intel schon für um die 300 €
Dazu muss man aber sagen, die 16GB der 7600 XT sind nicht mal ansatzweise so flott angebunden wie die der 5080 😅

128 Bit und 384 Bit (glaube ich?) sind ja schon ein Unterschied
 
Xes schrieb:
Heute ist die Baustelle eben öfter der VRAM, damals war es eher die Rohleistung, wenn man einzelne Settings bis zum Anschlag aufdreht. Das lässt sich aber wie eh und je dadurch lösen, dass man einzelne, besonders leistungs-, bzw. in diesem Fall VRAM-hungrige Optionen eine Stufe runter regelt.
Das ist völlig korrekt. Aber im Gegensatz zur Rohleistung, ließe sich die Baustelle VRAM halt wesentlich einfacher auflösen. Und das ne 60er oder 70er Karte da nicht protzt ist ja völlig ok, aber ne deutlich über 1.000 € teure 80er? Es ist eben Kalkül, damit man dann doch zur 5090 greift oder eben später noch mal aufrüstet, auch wenn die Rohleistung der 5080 über Jahre reichen würde.

Überleg mal, du bezahlst so viel Geld, um dann Regler runterdrehen zu müssen? Schon paradox irgendwie.

Mumbira schrieb:
Seit ich mich erinnern kann, war der Vram bei Nvidia immer an der Grenze. Aber seit ich mich erinnern kann, waren die Karten irgendwie dann doch wieder obsolet bevor der größere Vram was gebracht hätte.
Aktuell merke ich bei meiner 3070 vor allem die nur 8GB RAM. Rohleistung passt eigentlich bzw. kann man da ganz gut mit Settings gegenhalten, aber Texturen reduzieren sieht man halt dann doch noch mit am ehesten.

Mumbira schrieb:
sondern die beschissen optimierten Engines die den Speicher nicht ausmisten
Jup, aber daran können wir eben auch nichts aktiv ändern. Und der Fakt bleibt, dass dann deine teure Karte eingebremst wird vom RAM, obwohl mehr drin wäre.
 
habla2k schrieb:
Was für eine Vergleichbarkeit hat denn ein Test wo jede Karte die für sie "realistischen" Settings hat?
Das ist mir schon klar - allein deshalb würde ich halt den Test mindestens zweiteilen. Macht CB ja hin und wieder auch, dass man die "kleineren" Karten dann auch mal bei mittleren Settings testet...
Ich meine CB hält 1440p inzwischen für die Standardauflösung. Muss man halt auch nicht mehr zu sagen. Finde ich persönlich falsch. Und wenn, dann gehört halt trotzdem ein Test in 1080p rein für die kleineren Karten.

Ich bin absolut kein Fan von diesen rein "synthetischen Tests", anstatt ein "realistisches" Szenario - oder eben mehrere realistische Szenarien abzubilden.
Oder halt eine Kombination aus Beiden.
 
  • Gefällt mir
Reaktionen: stoefelz
kachiri schrieb:
Ich meine CB hält 1440p inzwischen für die Standardauflösung. Muss man halt auch nicht mehr zu sagen. Finde ich persönlich falsch.
Es gab eben eine Umfrage hier auf CB und da war FHD die am wenigsten genutzte Auflösung. So ein Test ist auch ein großer Aufwand und für jede Auflösung noch mal multipliziert. Und das alles für die allermeisten Lesenden dann auch noch gratis. ;)
 
  • Gefällt mir
Reaktionen: Maxysch
xHadesN7 schrieb:
Bin ich froh das auf meiner PS5 zu spielen. Meine Fresse... und das auf einer Konsole, die eine RX 6700 10GB GPU Leistung hat mit einem Ryzen 7 3700X. Und es läuft super, sogar mit Raytracing. 🤣
Ist schon seltsam das es auf dem pc so schlecht läuft, im Vergleich zu Konsole, die ja auch mehr oder weniger PC-Hardware nutzt.
 
1739358928157.png

soso, amd dlss... die anderen glitches im text behalte ich für mich, da kann die redaktion nochmal korrektur lesen.
 
habla2k schrieb:
Es gab eben eine Umfrage hier auf CB und da war FHD die am wenigsten genutzte Auflösung.
Ich würde da gerne mal Anzahl der Teilnehmer an der Umfrage und Anzahl der "Unique" Besucher der Seite gegenüberstellen. ;)
25 Millionen Seitenaufrufe (Quelle Mediadaten Computerbase). 400.000 registrierte Nutzer. Und dann eine Umfrage mit "ein paar Tausend" Teilnehmer als Grundlage nutzen... Kann man machen. Ist aber auch wieder schwierig.
 
  • Gefällt mir
Reaktionen: stoefelz
kachiri schrieb:
25 Millionen Seitenaufrufe (Quelle Mediadaten Computerbase). 400.000 registrierte Nutzer. Und dann eine Umfrage mit "ein paar Tausend" Teilnehmer als Grundlage nutzen... Kann man machen. Ist aber auch wieder schwierig.
Bei wahlumfragen werden ca 60 Millionen wahlberechtigte Bürger ja auch statistisch korrekt mit ~1000 Befragten abgebildet.

Hier haben wir 7000 Befragte
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Maxysch
kachiri schrieb:
25 Millionen Seitenaufrufe (Quelle Mediadaten Computerbase). 400.000 registrierte Nutzer. Und dann eine Umfrage mit "ein paar Tausend" Teilnehmer als Grundlage nutzen
Dazu gab es übrigens auch Anmerkungen in der Umfrage. Warum das so gemacht wurde. Ich finde sie nur gerade auf Anhieb leider nicht.

Wie wäre es denn mit Full HD nur für Pro Mitglieder? ;)
 
Lipovitan schrieb:
hat nur geholfen RTX zu deaktivieren
Wie deaktiviert man RTX? Hast du deine Grafikkarte in den Müll geschmissen und eine AMD eingebaut?
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Maxysch
@Capthowdy
Ja gut, aber mehr oder weniger Einzelfälle mit teils unklarer Herkunft bzw. sind es einfach Fehler von Treiber oder Anwendung. Aber zum Teil potentiell nervig.

Bei Deathloop ist es ja nur eine Vermutung, kein Nachweis.
Bei Avatar ein Fehler, dass der Speicher nicht mehr aufgeräumt wird.
Das Verhalten bei Warhammer spricht auch eher für einen Fehler bei der Speicherbereinigung, wenn das Problem erst im Laufe der Zeit kommt und während des Tests ein eher geringer Bedarf besteht.

Bei Star Wars Outlaws habe ich es ehrlich gesagt nicht weiter verfolgt. Das Zusatzfeature zieht unglaublich viel Speicher und sämtliche AMD Karten liefern auch unspielbare FPS ab.

Mir scheint das Spiel aber grundsätzlich ein eher seltsames Verhalten in Sachen Speichermanagement zu zeigen, womit ich dann auch zu einer eher grundsätzlichen Frage komme:
Muss man immer mit mehr VRAM Unzulänglichkeiten der Spieleentwickler erschlagen?
Bei Hogwarts Legacy gab es zumindest anfangs afair auch mal Probleme in dem Bereich, während Spiele, die richtig gut aussehen, auch mit deutlich weniger als 16 GB sehr gut auskommen.

Die nächste Sache ist ja, dass AMD bei den neuen Karten auch "nur" 16 GB verbaut, also AMD 4K generell mehr oder weniger anschreibt oder 16 GB dann auch als ausreichend erachtet, weil es ein besseres Speichermanagement gibt.
 
  • Gefällt mir
Reaktionen: stoefelz
Moin,
Schon wieder nur DLSS/FSR-Upscaling Ergebnisse ... Dann macht doch FHD ohne Upscaling und nennt es Software-WQHD. Damit wären gleich zwei Fliegen mit einer Klappe erschlagen.

Ich betrachte es mittlerweile als Warnhinweis, wenn Upscaling in Systemanforderungen auftaucht. Wenn Features als Grundlagen verwendet werden, dann ist was grundlegend falsch gelaufen.

@Taxxor nur anhand der Fragestellung und Auswahl der 1000 "Repräsentativen Teilnehmer" kann ich dir jedes Ergebnis erzeugen. Da braucht es schon großes Vertrauen. Darum traue keiner Statistik, die du nicht selbst gefälscht hast ;)

Gruß Beschi
 
Fighter1993 schrieb:
Wie deaktiviert man RTX? Hast du deine Grafikkarte in den Müll geschmissen und eine AMD eingebaut?
In den Settings. Ist im Launcher blöd zu sehen unter Raytracing Preset.

1739360782869.png
 
  • Gefällt mir
Reaktionen: Beschi
Capthowdy schrieb:
Aus dem Warhammer 40K Test:


Aus dem Star Wars Outlaws Test:


Aus dem Deathloop Test:


Aus dem Avatar: Frontiers of Pandora Test:


Das ist nur, was mir aus dem Gedächtnis noch so eingefallen ist, es gibt sicher noch andere Beispiele. Bisher nichts gravierendes, aber auch dieser Test hier zeigt mal wieder auf, wo die Reise in UHD hingeht.

Dass spiele beim ständigen Wechsel von Grafiksettings den VRAM zumüllen ist völlig normal. Mach es oft genug und 16, 24 oder 32 GB werden überlaufen.
Juckt halt niemanden, wenn das Spiel dann trotzdem nur 12 GB braucht, wenn man die Settings nicht ständig verstellt.
 
Hmm bin ja am überlegen ob ich mal wieder in richtige Gaming Hardware "investieren" sollte.
P/L wäre 7800xt eigentlich weit vorne finde ich.
Aber 500€ für quasi 30fps in wqhd mit rt ist schon hart.
Bestätigt meine Tendenz, gar nicht mehr richtig Geld auszugeben und lieber gute Indies zu zocken mit energiesparender Hardware.
Ich meine, come on, Spider Man.. Ist schon eher was für Kiddies (no offense, bin selber Sponge Bob Fan^^), dafür eine 1000€ GPU?
Nicht mehr meine Welt. Da gammelt das Geld lieber auf der Bank rum ehrlich gesagt.
Ergänzung ()

Beschi schrieb:
Moin,
Darum traue keiner Statistik, die du nicht selbst gefälscht hast ;)

Gruß Beschi
Ganz nach dem Motto: Eine gute Statistik ist wie ein Bikini, sie zeigt Vieles und verdeckt Wesentliches :)
 
  • Gefällt mir
Reaktionen: Beschi
Zurück
Oben