• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Fortnite-Benchmarks (2024): 28 GPUs von AMD, Intel & Nvidia in FHD, WQHD & UHD im Test

Au Mann, eine 750 € Karte (7900XT) vor einer 1800 € Karte (4090).
100 % im CPU Limit (aber warum ist dann die "Schnellste" nicht vorne), und/oder einfach schlecht auf NV optimiert ... :daumen:

Hoffentlich kommt der Titel nicht in den Bench Parcours :cool_alt:
 
  • Gefällt mir
Reaktionen: {Sardaukar}
Sehr nice, diese Artikelserien sind immer wieder super nützlich. Vielen vielen Dank, freue mich schon besonders auf den CS2.
 
  • Gefällt mir
Reaktionen: Lonex88
hennich schrieb:
Bin ehrlich gesagt auch etwas erstaunt was man alles aus Treibern noch holen kann. Hut ab das die 7900xtx die 4090 doch noch so eingeholt hat
Hört doch mal bitte auf so einen Quatsch zu erzählen. Nicht nur das es wehtut, so etwas zu lesen, nein, viel schlimmer noch, jemand anderes liest das und glaubt das noch.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, Mantasia, MoinWoll und 2 andere
Azghul0815 schrieb:
@Wolfgang
Danke für den aufwendigen Test.
Wie wäre es allerdings mit einem CPU Benchmark mit üblichen kompetetiven Einstellungen, mit Fokus auf Drops und 1% Percentile?
Wir haben hier im Forum ja ständig Threads wo selbst 7800x3ds ins Stottern kommen.
Verstehe zwar voll und ganz, dass das interessant ist. Aber ein separater CPU-Artikel für Fortnite ist einfach nicht drin, das Spiel zu benchen ist wirklich komplex und extrem zeitraubend :(
GOOFY71 schrieb:
Könnte man bitte in der Benchmarktabelle die Karten mit mehreren Speicherausbaustufen kennzeichnen (z.B. 4060 Ti 16GB bzw. 8GB)? Es wird zwar immer nur eine Karte benannt, aber das ist dann eindeutiger.
Einfließen sollte auch die RTX 3050 mit 6GB in der 70W Variante ohne Netzteilanschluss.
Das geht aus Designgründen leider nicht. Aber es sind immer die Standard-Modelle. Sprich, RTX 3080 10 GB, RTX 4060 Ti 8 GB, Arc A770 16 GB, RTX 3050 8 GB...hab ich was vergessen?
Nitschi66 schrieb:
Und vielleicht auch wieder Dota2? ^^ Habt ihr ja auch schon einmal gemacht. Aber ich könnte mir vorstellen, dass so ein Test auch gut von außerhalb geklickt werden könnte, oder? Immerhin eines der meistgespielten Spiele auf Steam.
Du wirst lachen: Meistgespielte Games auf Steam (oder wo anders) bringt dir auf ComputerBase wenig. Ich kann dir jetzt schon sagen, dass der Fortnite-Artikel hier relativ schlecht gelesen wird, während die meisten AAA-Spiele gelesen werden wie sau. Unsere Community ist halt primär der "High-End-Gamer", der spielt einfach etwas anderes. Das ist auch der Grund, warum Spiele wie Fortnite nur ab und zu getestet werden können.
theGucky schrieb:
Nicht ein nativer Test?
Was soll das bringen, nativ läuft schlechter als mit Upsampling und sieht zugleich schlechter aus. Es ergibt einfach keinen Sinn, Fortnite ohne Upsampling zu testen. Was in absehbarer Zukunft auch für alle SPiele gelten wird, der Zug ist schon längst angefahren.
 
  • Gefällt mir
Reaktionen: bluna, robosaurus, NerdmitHerz und 12 andere
Rainbowprincess schrieb:
Die UE5 ist und bleibt eben Rotz. Keine Ahnung weshalb die so hoch gelobt wird. Es nervt langsam ungemein, das immer mehr Spieleentwickler diese engine für ihr Spiel nehmen, statt eine eigene zu entwickeln. Jaja, kosten und so. Aber früher ging es ja auch.
Ich persönlich kaufe jedenfalls kein Spiel welches diese engine nutzt. Allein schon wegen der upscaling Pflicht. Diesen Rotz unterstütze ich nicht, da er meiner Ansicht nach ein Fehler bleibt darauf zu setzen. Er macht Entwickler faul und fordert Ressourcenverschwendung bzw miserable Optimierung.
Ist traurig dass Wolfgang Fan davon ist und dies als die Zukunft ansieht und dementsprechend das mittlerweile in allen Tests nutzt, wenn's möglich ist.
Was ein Haufen Quatsch :D
 
  • Gefällt mir
Reaktionen: Sirhaubinger, MrHeisenberg, EMkaEL und eine weitere Person
Wolfgang schrieb:
Was soll das bringen, nativ läuft schlechter als mit Upsampling und sieht zugleich schlechter aus. Es ergibt einfach keinen Sinn, Fortnite ohne Upsampling zu testen. Was in absehbarer Zukunft auch für alle SPiele gelten wird, der Zug ist schon längst angefahren.
Wie verhält sich denn die Skalierung wenn du in 2560x1440 anstatt Balanced Mode auf Quality hoch gehst und in 3840x2160 von Performance auf Balanced auf Quality?
Es schaut so aus als würde die 4090 bzw. allgemein größeren NV Modelle da irgendwie verhungern an der niedrigen Renderauflösung...
 
Epistolarius schrieb:
Also ich finde die Grafikansprüche von CB schon etwas abgehoben. Die Grafik bevor Lumen dazukam war keinesfalls "hässlich".
Ganz im Gegenteil.
Mir scheint bei sovielen High-end Grafikkarten ist CB etwas das Gefühl von Performance-zu-Optik verloren gegangen.

Wieso diese comicgrafik a la Overwatch, die selbst in FHD noch Upsampling benötigt, nicht dafür kritisiert wird, ist mir völlig unverständlich. Das Spiel ist grafisch völlig unspektakulär und auch Lichteffekte/RT können dröge Baukasten-Landschaften nicht retten.
Mal ehrlich, selbst ein 11 Jahre altes Bioshock Infinite sieht spektakulärer und einfach besser aus. Erinnert sich noch jemand an die Leistungssprünge der GPUs?
60fps@FHD auf einer Radeon HD 7970. Dabo Davon auf eine RTX 4080 liegen Welten (4 TFlops vs 48 TFlops in Rohdaten) . Also wieso kann ein UE5 Fortnite auf einer RTX 4080 langweiliger aussehen als das hier?: Bioshock 4K. Es fehlen nur ein paar HD Texturen. Das steht in keinerlei Verhältnis, die Leistung wurde einfach verbraten nach dem Motto: mehr ist mehr.

Gute Grafik ist eben mehr als das reine aktivieren von Engine und Shader-features und sollte nicht nur daran gemessen werden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SP-937-215 und bad_sign
Ui. Da wird die Lederjacke aber wüten. 😂 Kann ja nicht sein, dass ne 800€ Karte schneller als ne 1800€ Karte ist. 🤣🤣🤣
 
  • Gefällt mir
Reaktionen: danyundsahne
Kazuja schrieb:
Schön das AMD so aufholen kann 👍.
Jaein, AMD kann da nicht wirklich aufholen. Gleichzeitig zeigt Fortnite, was RDNA3 leisten kann, und wo sich die 7900 XTX auch einsortieren sollte, mit ihren Eckdaten.

Von den Eckdaten müsste die 7900 XTX sich immer so ca. 10 % vor die 4080 schieben und 10 % hintzer die 4090, also in die Lücke setzten. Das passiert hier im Spiel und damit leistet die Karte das, was sie leisten sollte.

In WQHD und FHD sieht man dann auch, dass AMD - wenn es denn ordentlich läuft - ihre Shader besser auslasten können als Nvidia und die pure Zahl reicht nicht aus, um das auszugleichen.

Es ist aber schön zu sehen, dass es auch Spiele gibt, bei denen RDNA 3 genau da landet, wo man es erwarten würde.
HAse_ONE schrieb:
AMD-Base mal wieder... in 1080p zwei AMD Karten vor der 4090, freu mich schon auf die Kommentare :D
@Jan der Coach hat versagt, wir sind wohl immer noch zu sehr AMD-Fans. ;)
Rainbowprincess schrieb:
Jaja, kosten und so. Aber früher ging es ja auch.
Führer bestand eine Grafikengine auch daraus, dass man sich ein Dreick nimmt, im Raum platziert, das Dreieck rastert, die textur drauf setzt, den Lichtwert verrechnet und das ganze dann ausgibt.

Dynamische Beleuchtungen, wirkliche Schatten und Co waren damals Hexenwerk! Eine Engine damals zu entwickeln war weitaus einfacher.
Rainbowprincess schrieb:
Er macht Entwickler faul und fordert Ressourcenverschwendung bzw miserable Optimierung.
Das könnte man auch über Crysis 1 schreiben, dass 2007 zwar eine super Grafik hatte, dafür aber so einen Ressourcen-Hunger und sehr schlecht mit den Ressourcen umging, während eine UE3 damals bei deutlich geringeren Ressourcen-Bedarf eine nur etwas schlechtere Qualität an den Tag gelegt hat.


In der UE-Engine sind mit Nanite und Lumen neue Funktionen untergekommen, die ein "dynamisches" LoD ermöglichen und versuchen "Übergangslos" die Polygone zu reduzieren, so dass es grafisch nicht auffällt. Lumen wiederum ist darauf ausgelegt, dass man eine flexibel und möglichst genaue Beleuchtung hat, ohne dass man direkt den Vorschlaghammer auspacken muss.

Klar, kann man "ähnliche" Ergebnisse auch mit "weniger" Ressourcen erreichen, nur ist genau das der Punkt. Die meisten wollen mehr bei der Grafik, mehr Detailfülle und Co - verständlich - und all das geht mit einem gewissen Ressourcen-Bedarf einher.
Draco Nobilis schrieb:
Eventuell eine Überlegung auch für andere Spiele. Ist natürlich Aufwand.
Ach, wird schon alles werden.
CastorTransport schrieb:
Sind Deiner Meinung nach die "AMD-Base-Benchmarks" gefälscht zugunsten AMDs? Wieso liegt AMD in anderen Benches dann hinter NVIDIA?
HAse_One hat das eher humoristisch gemeint.
mesohorny schrieb:
Was stimmt denn nun? Wir brauchen Fakten!
Also ich bin ein AMD hassendes AMD-Fanpandi, dass Nvidia immer nur böse lieb behandelt und Intel am liebsten ja doch nicht nicht im PC hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Boimler, NerdmitHerz, H6-Mobs und 4 andere
Ich frag mich auch was mit der Engine los ist. Die Basis-Anforderungen werden immer höher, und dann (überspitzt formuliert) trotzdem nur PS1 Grafik. Kanns ja echt nicht sein.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SP-937-215
Ich checks gerade nicht. Im Test steht ja:
IMG_6627.jpeg

Aber in den Tabellen dann immer Hoch

Edit. Wurde bereits gefixed
 
Rainbowprincess schrieb:
Die UE5 ist und bleibt eben Rotz. Keine Ahnung weshalb die so hoch gelobt wird. Es nervt langsam ungemein, das immer mehr Spieleentwickler diese engine für ihr Spiel nehmen, statt eine eigene zu entwickeln. Jaja, kosten und so. Aber früher ging es ja auch.
Ich persönlich kaufe jedenfalls kein Spiel welches diese engine nutzt. Allein schon wegen der upscaling Pflicht. Diesen Rotz unterstütze ich nicht, da er meiner Ansicht nach ein Fehler bleibt darauf zu setzen. Er macht Entwickler faul und fordert Ressourcenverschwendung bzw miserable Optimierung.
Ist traurig dass Wolfgang Fan davon ist und dies als die Zukunft ansieht und dementsprechend das mittlerweile in allen Tests nutzt, wenn's möglich ist.
Dann wirst du auf sehr viele gute Spiele in der Zukunft verzichten müssen. Die setzen aus gutem Grund auf die UE5. Die Möglichkeiten die sich mit dieser Engine ergeben sind mit dem zu vergleichen was damals Crysis beim Launch bot. Kannst du dich an eine Hardware Ausstattung erinnern, die Crysis native mit durchgehend mehr als 30fps darstellen konnte? Nein? Richtig, gab es zu dem Zeitpunkt nicht.

Ich bin wie viele andere, ebenfalls kein Fan von upscaling ist Pflicht, jedoch stellt dies die einzige Möglichkeit dar, grafisch solche Fortschritte zu machen, ohne bei den FPS zu sehr einen Rückschritt zu erleiden.

Wenn du weitreichenden Veränderungen, wie Spiele designed werden können, danke nanite und Lumen, nicht nachvollziehen kannst, ist das kein Problem. Aber bitte übertrag deine Unwissenheit über die technischen Aspekte einer Engine nicht auf deren Leistungsfähigkeit. Das die UE5 Dinge so darstellen kann wie sie es tut, ohne das man im 1-Stelligen FPS Bereich landet, ist schon fast ein Wunder und in jedem Fall ein Beweis von den Fähigkeiten der Köpfe hinter der Engine.
 
  • Gefällt mir
Reaktionen: TomH22
Wolfgang schrieb:
Was soll das bringen, nativ läuft schlechter als mit Upsampling und sieht zugleich schlechter aus. Es ergibt einfach keinen Sinn, Fortnite ohne Upsampling zu testen. Was in absehbarer Zukunft auch für alle SPiele gelten wird, der Zug ist schon längst angefahren.
Weil man so die tatsächliche Performance einer Karte in dem Spiel besser ableiten kann.
Upscaling ist auch nicht perfekt.
In 4k würde ich es nutzen, in 1440p auch.
Aber definitiv nicht in 1080p, weil dort Informationen fürs Upscaling fehlen und damit kann es nicht besser aussehen. Schließlich wird ja dann von 720p oder weniger hochskaliert.
 
DevPandi schrieb:
Führer bestand eine Grafikengine auch daraus, dass man sich ein Dreick nimmt, im Raum platziert, das Dreieck rastert, die textur drauf setzt, den Lichtwert verrechnet und das ganze dann ausgibt.

Dynamische Beleuchtungen, wirkliche Schatten und Co waren damals Hexenwerk! Eine Engine damals zu entwickeln war weitaus einfacher.
stand heute kann man auf ray tracing immernoch problemlos verzichten, da der optische Gewinn in keinem Verhältnis zu den Leistungseinbußen steht. Das mag sich in Zukunft freilich ggf. ändern.

DevPandi schrieb:
In der UE-Engine sind mit Nanite und Lumen neue Funktionen untergekommen, die ein "dynamisches" LoD ermöglichen und versuchen "Übergangslos" die Polygone zu reduzieren, so dass es grafisch nicht auffällt. Lumen wiederum ist darauf ausgelegt, dass man eine flexibel und möglichst genaue Beleuchtung hat, ohne dass man direkt den Vorschlaghammer auspacken muss.

Klar, kann man "ähnliche" Ergebnisse auch mit "weniger" Ressourcen erreichen, nur ist genau das der Punkt. Die meisten wollen mehr bei der Grafik, mehr Detailfülle und Co - verständlich - und all das geht mit einem gewissen Ressourcen-Bedarf einher.
All das was man in den unzähligen UE5 demos an technologie-demonstrationen gesehen hat, spiegelt sich meines Wissens nach bislang in keinem einzigen Spiel wider. Fortnite ist grafisch bei weitem keine Messlatte

^Q^ schrieb:
Wenn du weitreichenden Veränderungen, wie Spiele designed werden können, danke nanite und Lumen, nicht nachvollziehen kannst, ist das kein Problem. Aber bitte übertrag deine Unwissenheit über die technischen Aspekte einer Engine nicht auf deren Leistungsfähigkeit. Das die UE5 Dinge so darstellen kann wie sie es tut, ohne das man im 1-Stelligen FPS Bereich landet, ist schon fast ein Wunder und in jedem Fall ein Beweis von den Fähigkeiten der Köpfe hinter der Engine.
zeig mir ein einziges Spiel, was diesen Absatz bestätigt. Es gibt stand heute kein einziges UE5 Spiel, was diese technologien in einem Ausmaß nutzt, dass man sowas schreiben könnte
 
  • Gefällt mir
Reaktionen: SP-937-215 und Innocience
fdsonne schrieb:
Wie verhält sich denn die Skalierung wenn du in 2560x1440 anstatt Balanced Mode auf Quality hoch gehst und in 3840x2160 von Performance auf Balanced auf Quality?
Es schaut so aus als würde die 4090 bzw. allgemein größeren NV Modelle da irgendwie verhungern an der niedrigen Renderauflösung...
Ich habe da jetzt keine genaue Zahlen, aber ab WQHD ist auch die RTX 4090 schon ziemlich im GPU-Limit (in Full HD noch nicht), zumindest diesbezüglich würde sich nicht mehr viel tun. Die RTX 4090 könnte sich in hohen Auflösungen vielleicht noch etwas mehr absetzen, aber wenn du zum Beispiel dir den Abstand der RX 7800 XT zur RTX 4070 Super anschaust, bleibt der in allen Auflösungen genau gleich. Es ist also nicht so, als würde bei Lovelace bei zusätzlichen Renderpixeln plötzlich generell irgend etwas besser funktionieren.
CR4NK schrieb:
Ich checks gerade nicht. Im Test steht ja:

Aber in den Tabellen dann immer Hoch

Edit. Wurde bereits gefixed
Hier war ein paar Minuten ein Fehler in den Diagrammen :)
Rainbowprincess schrieb:
stand heute kann man auf ray tracing immernoch problemlos verzichten, da der optische Gewinn in keinem Verhältnis zu den Leistungseinbußen steht. Das mag sich in Zukunft freilich ggf. ändern.
Generell gebe ich dir zwar recht, dass Raytracing bezüglich FPS/Bildqualität schwierig ist, bei der Beleuchtung muss ich dir aber widersprechen. Beleuchtung kann durch Raytracing sehr profitieren wenn der Content dafür ordentlich designt wurde, sei es nun Lumen oder Hardware-RT.
 
  • Gefällt mir
Reaktionen: MoinWoll, Redundanz und DevPandi
Wolfgang schrieb:
Generell gebe ich dir zwar recht, dass Raytracing bezüglich FPS/Bildqualität schwierig ist, bei der Beleuchtung muss ich dir aber widersprechen. Beleuchtung kann durch Raytracing sehr profitieren wenn der Content dafür ordentlich designt wurde, sei es nun Lumen oder Hardware-RT.
Das Problem bei RT und PT ist für mich aktuell, dass die Unterschiede auf Screenshots oft nicht gut vermittelt werden und auch beim Spielen ist es eher eine subjektive Änderungen, die man erst merkt, wenn man aktiv darauf achtet und zwischen den Modi wechselt.

Viele Titel, die mit RT "deutlich" besser aussehen, sehen ja beim Fallback schlechter aus, weil dort nur noch das nötigste getan wird dann - siehe Avatar oder hier jetzt auch mit Mittel.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Wolfgang schrieb:
Ich habe da jetzt keine genaue Zahlen, aber ab WQHD ist auch die RTX 4090 schon ziemlich im GPU-Limit (in Full HD noch nicht), zumindest diesbezüglich würde sich nicht mehr viel tun. Die RTX 4090 könnte sich in hohen Auflösungen vielleicht noch etwas mehr absetzen, aber wenn du zum Beispiel dir den Abstand der RX 7800 XT zur RTX 4070 Super anschaust, bleibt der in allen Auflösungen genau gleich. Es ist also nicht so, als würde bei Lovelace bei zusätzlichen Renderpixeln plötzlich generell irgend etwas besser funktionieren.
Meinst du native oder mit Upscaling?
Weil im 3840x2160er Test ist ja mit Performance auch nur 1920x1080 die Renderauflösung. Beim 2560er Test eben 14xx irgendwas wegen Balanced und bei Quality im 1920x1080er Test rendert das auf 1280x720. Du erreichst also nie größer FullHD.

Wenn ich das richtig sehe über diverse Games, lässt so eine 4090 doch mehr Leistung liegen als ne 7900XT(X) in FullHD und legt meist mit stärkerer Last mehr zu. Ob da jetzt groß noch Upscaling drauf kommt oder nicht, macht da ja gar nicht mal so viel Unterschied.

Was man halt irgendwo sieht, dass der Abstand bspw. der 7800XT zur 7900XTX schon in 1920x1080 (1280x720) bei 30% liegt. Während dort die 4090 nur 19% in Front liegt. In 3840x2160 (1920x720) sind es dann 53% avg. zur 4090 und 38% zur 7900XTX.
Nur mal im Vergleich - Horizon Forbidden West -> 7800XT zur 4090 in FHD = 52%, in UHD = 77%.
Das riecht irgendwie nach Limit, wo das AMD Paket irgendwie besser weg kommt.
 
Zurück
Oben