• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Banishers: Ghosts of New Eden im Test: 21 Grafikkarten im Unreal-Engine-5-Spiel im Benchmark

Find die ausgewählten Benchmarks gut. Dürfte auf einer 6650XT bzw 7600 also in 1440p mit mittleren Details mit gut 60 fps laufen. Gut genug für mich.
 
nciht schrieb:
Kauf niemals weniger VRAM als die Konsolen Speicher haben, wenn du die gleichen Spiele auf dem PC in der gleichen oder höheren Qualität spielen willst.
Welche 8 GB Grafikkarte hattest du denn 2014 nach dem Start der PS4 und Xbox One?
 
NoNameNoHonor schrieb:
Schade dass die 7900 GRE so gut wie nie in Benchmarks als Balken mit aufgelistet wird.
Mindestens bei RT-Benchmarks sollte sie sich zumindest von der 7800XT absetzen.
Aber wie gesagt, wird von CB immer weggelassen...
Weil sie scheinbar keine 7900 GRE in der Redaktion haben. Den Test damals haben sie mit einem Komplett-Rechner gemacht, der von Memory-PC gestellt wurde und danach sehr wahrscheinlich wieder zurückging.
Aber auch hier wäre - wie ja auch schon bei der 6800 oder bspw. der 4070 Ti - der Aufwand einfach zu riesig. Die Unterschiede kann man auch in anderen Graphen ablesen. Da muss man halt bisschen Cross-Vergleiche anstellen.

Habe ich mal gemacht. Bzw. einfach den Test der 7800 XT aufgerufen: https://www.computerbase.de/2023-09...chmarks_mit_und_ohne_raytracing_in_2560__1440

5% klingt eher nicht nach "absetzen". Das entspricht eigentlich quasi exakt dem Anspruch im Rasterizer-Chart...

Und hier ist RT ja nicht einmal ein Faktor.

@Experte18 Genau zwischen 4070 Super und 4070 Ti Super?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes und Pro_Bro
E1M1:Hangar schrieb:
Als PS User hat man meist die Games schon einige Tage eher daheim, weil es schlicht egal ist ob digital oder als Disc, wird nicht nur wegen dem einfachen Wiederverkauf die Disc gekauft - nach wie vor.
...
Hast du echt geglaubt, dass die Leute den Vorteil der PS nicht nutzen?
Der Vorteil, Spiele blind vorzubestellen und sich dann noch vor dem obligatorischen Day-One-Patch mit zahlreichen Bugs anzufreunden? ;-)
 
Cohen schrieb:
Welche 8 GB Grafikkarte hattest du denn 2014 nach dem Start der PS4 und Xbox One?
Ich habe einfach gewartet bis die 8GB VRAM in GPUs vorhanden waren um nicht gleich wieder upgraden zu müssen. Deswegen hielt die spätere 1070 ja auch so schön lange. Solange Spiele noch parallel für die alte Konsolengeneration erscheinen, ist das eben auch kein Problem. Wir sind halt inzwischen an dem Punkt, dass Spiele nicht mehr für die PS4 erscheinen und deswegen machen sich die 8GB VRAM halt auch zunehmend bemerkbar.
 
TR2013 schrieb:
Find die ausgewählten Benchmarks gut. Dürfte auf einer 6650XT bzw 7600 also in 1440p mit mittleren Details mit gut 60 fps laufen. Gut genug für mich.
Wenn ne 590 ne 6650 XT ist klar...
 
Nicht bezogen auf meine Signatur sondern meine Erwartungen.
 
nciht schrieb:
Ich habe einfach gewartet bis die 8GB VRAM in GPUs vorhanden waren um nicht gleich wieder upgraden zu müssen. Deswegen hielt die spätere 1070 ja auch so schön lange. Solange Spiele noch parallel für die alte Konsolengeneration erscheinen, ist das eben auch kein Problem. Wir sind halt inzwischen an dem Punkt, dass Spiele nicht mehr für die PS4 erscheinen und deswegen machen sich die 8GB VRAM halt auch zunehmend bemerkbar.
Versuchst du jetzt, deinen GTX 960 Kauf zu verschweigen? ;-)

nciht schrieb:
Ich stand halt letztes Jahr vor einem ähnlichen Problem. WQHD-Monitor geschenkt bekommen (zwar nur 60Hz) und die GTX 960 ging bei jedem Spiel in die Knie, sodass ich überall die Einstellungen herunterregeln musste und alles schlechter aussah, als vorher in FHD. In kleinerer Auflösung zocken war keine Option und mittlere Details, wo vorher fast Ultra möglich war, war wenig begeisternd. Bin schon über mein Budget gegangen und hab eine 1070 gekauft.

nciht schrieb:
Kauf niemals weniger VRAM als die Konsolen Speicher haben, wenn du die gleichen Spiele auf dem PC in der gleichen oder höheren Qualität spielen willst.

Die GTX 960 wurde erst ab 2015 verkauft, die PS4 und Xbox One ab 2013. War es denn wenigstens die 4GB-Version?
 
6800XT 31% (1080p) bzw. 27% (1440p) langsamer, als die RTX 3080 - was ist denn bitte hier passiert?!
 
  • Gefällt mir
Reaktionen: Sun-Berg
Cohen schrieb:
Versuchst du jetzt, deinen GTX 960 Kauf zu verschweigen? ;-)
Nein, das war eine Übergangskarte, für eine Zeit, in der ich wenig gespielt habe, die ich für n Apfel und n Ei bekommen hatte. War tatsächlich die 2GB-Version, aber ne richtige Karte kaufen hätte sich für mich in dem Moment nicht gelohnt.

Und das widerlegt jetzt inwiefern die Aussage, dass man sich den GPU-Speicher zulegen muss, den die Konsolen haben, wenn man die Erwartung hat, mit den Konsolen mithalten zu können? - Oder meinst du das Widerlegt die Aussage, dass ich auf eine 8GB-Karte gewartet habe? Blätter ruhig weiter in meiner Hardwarehistorie herum, wenn dir sonst keine Argumente einfallen, welche sich auf die eigentliche Diskussion beziehen, welche sich wiederum eigentlich um die 8GB-Karte/aktuelle Konsolengeneration drehte.
 
Zuletzt bearbeitet:
nciht schrieb:
Nein, das war eine Übergangskarte, für eine Zeit, in der ich wenig gespielt habe, die ich für n Apfel und n Ei bekommen hatte. War tatsächlich die 2GB-Version, aber ne richtige Karte kaufen hätte sich für mich in dem Moment nicht gelohnt.

Und das widerlegt jetzt inwiefern die Aussage, dass man sich den GPU-Speicher zulegen muss, den die Konsolen haben, wenn man die Erwartung hat, mit den Konsolen mithalten zu können? - Oder meinst du das Widerlegt die Aussage, dass ich auf eine 8GB-Karte gewartet habe?
Nun ja, mit einer GTX 960 (4 GB) konnte man damals schon die Erwartung haben, mit den Konsolen PS4 und Xbox One mitzuhalten, obwohl sie nur 4 GB RAM hat... daher auch die Nachfrage.

Eben weil die PS4 und Xbox One auch nur einen Teil der 8 GB Unified RAM mit Grafikdaten vollballern konnten und der restliche Speicher für das OS, die Spieledaten abseits der Grafik und für Features wie Videoaufzeichnung im Hintergrund benötigten.

Und ähnlich sieht es heute auch bei der PS5 und Xbox Series X aus. Auch die können nicht die vollen 16 GB Unified RAM mit Grafikdaten vollballern, sondern nur so 8 - 12 GB. Bei der Xbox Series X wird wohl bei 10 GB Schluss sein, da die restlichen 6 GB langsamer angebunden sind.

Mit einer 10-GB-Grafikkarte oder 12-GB-Grafikkarte kann man also auch heute die Erwartung haben, bis zum Ende der aktuellen Konsolengeneration "mit den Konsolen mithalten zu können".
 
Cohen schrieb:
Mit einer 10-GB-Grafikkarte oder 12-GB-Grafikkarte kann man also auch heute die Erwartung haben, bis zum Ende der aktuellen Konsolengeneration "mit den Konsolen mithalten zu können".
Das wäre die mMn knapp bemessene Erwartung, die hofft, dass die Spiele in der Generation auf dem PC auch ja so gut optimiert sind wie auf der Konsole. Es ist jetzt auch nicht so, dass der Restliche (langsam angebundene) Speicher so gar nicht als VRAM genutzt werden kann. 10-12 sind auf jeden Fall mehr als 8 und die imho sichere Option für diese Generation wären eigentlich 13-14GB VRAM, aber weil es da keine Karte gibt, ist das nächst höhere eben ne 16GB-Karte.

Es sind dann so Titel wie Ratchet & Clank, oder auch das Last of Us Remake, wo die 12GB plötzlich eng werden.

Cohen schrieb:
Nun ja, mit einer GTX 960 (4 GB) konnte man damals schon die Erwartung haben
Die hab ich halt nicht für n Appel und n Ei angeboten bekommen.
 
Zuletzt bearbeitet:
nciht schrieb:
Das wäre die mMn knapp bemessene Erwartung, die hofft, dass die Spiele in der Generation auf dem PC auch ja so gut optimiert sind wie auf der Konsole. Es ist jetzt auch nicht so, dass der Restliche (langsam angebundene) Speicher so gar nicht als VRAM genutzt werden kann. 10-12 sind auf jeden Fall mehr als 8 und die imho sichere Option für diese Generation wären eigentlich 13-14GB VRAM, aber weil es da keine Karte gibt, ist das nächst höhere eben ne 16GB-Karte.

Es sind dann so Titel wie Ratchet & Clank, oder auch das Last of Us Remake, wo die 12GB plötzlich eng werden.

Die Optimierungszeiten auf Konsolen sind spätestens vorbei, seitdem auch die Konsolenspiele mehrere Presets anbieten (z.B. Switch: docked + undocked Modi, PlayStation + Xbox: Performance, Quality, RT Quality, RT 40 fps/120 Hz...) und teilweise sogar verschiedene Hardware unterstützen müssen (PS-CrossGen-Spiele: PS4, PS4 Pro, PS5... und bald PS5 Pro?; Xbox-CrossGenSpiele: Xbox One, Xbox One S, Xbox One X, Xbox Series S und Xbox Series X).

Um dieser Flexibilität und Abwärtskompatibilität zu ermöglichen, können Konsolenspiele eben nicht mehr auf einen unveränderlichen Maschinencode zugeschnitten werden.

Und bei Microsoft-Spielen sowie bei den neueren Sony-Spielen wird die PC-Version vermutlich grundsätzlich von Anfang an mit eingeplant, selbst wenn es bei Sony noch zeitversetzte Veröffentlichungen sind.

Sowohl bei Ratchet & Clank als auch beim The Last of Us Remake wird es auf 10-12GB-Karten auch nicht knapp, wenn man vergleichbare Settings der PS5-Version verwendet... da muss man das schon mit höheren Settings herausfordern.

Es gibt bei Digital Foundry mehr als genug Vergleiche, bei denen PS5-Versionen nur die mittlere Texturstufe der PC-Versionen nutzen... obwohl "maximale Texturen ja keine Leistung kosten", wie immer gepredigt wird. Dann wird bei der PS5-Version wohl doch RAM an anderer Stelle fehlen, sonst würde man ja bessere Texturen anbieten.
 
kiffmet schrieb:
6800XT 31% (1080p) bzw. 27% (1440p) langsamer, als die RTX 3080 - was ist denn bitte hier passiert?!
Ich würde stumpf behaupten, es waren schlechte Spielentwickler am Werk.
Mal ein paar % rauf oder runter ggü. anderen Spielen ist ok, das hier ist einfach nur unfertig auf dem Markt geworfen.
 
  • Gefällt mir
Reaktionen: kiffmet
@Cohen Vergiss am besten Digital Foundry, z. B. behaupten die indirekt das gewollt technische Unzulänglichkeiten eines Spieles wie schlechtere Schattenkaskaden auf deaktiviertes Raytracing zurückzuführen ist, die haben entweder keine Ahnung was die von sich geben oder die wollen bewusst Leute in die Irre führen, ich nehme jedenfalls inhaltlich nichts mehr ernst wenn man sich auf die bezieht.^^
 
Cohen schrieb:
Welche 8 GB Grafikkarte hattest du denn 2014 nach dem Start der PS4 und Xbox One?
Die Konsolen hatten zwar 8 GB, aber nicht als reiner Grafikspeicher. DIe 8 GB waren gemeinsamer Arbeits- und Grafikspeicher (bei der Xbox One sogar nur DDR3 statt GDDR5), mussten sich also CPU und GPU (und Betriebssystem) teilen. Effektiv hatte der Grafikspeicher also eher eine nutzbare Größe 4- 6 GB, je nachdem wie die Entwickler des Spiels sich den aufgeteilt haben.

Und 6 GB konnte man kurz vor den Konsolen schon mit der GTX Titan haben. Etwa zwei Jahre nach Release der PS4 und XOne gab es dann schon Grafikkarten mit 8 GB (Radeon R9 390/390X) oder sogar 12 GB (Geforce GTX Titan X). Es war also durchaus möglich, zum Zeitpunkt der PS4 & Xone schon im PC vergleichbar viel Grafikspeicher zu haben.
 
Aber jetzt kommst mit der 590 8 GB nicht weit
 
Die Unreal Engine 5 sieht schon wirklich sehr schick aus.
 
  • Gefällt mir
Reaktionen: floTTes
Zurück
Oben