• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Fortnite-Benchmarks (2024): 28 GPUs von AMD, Intel & Nvidia in FHD, WQHD & UHD im Test

CB bleibt weiterhin unseriös und stellt DLSS und TSR/FSR/wasauchimmer gleich und vergleicht die Ergebnisse auch noch ohne Kommentar im Benchmark :p

Wie wir ja alle wissen sieht es ansonsten ganz anders aus:
IMG_2253.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Caramelito, EMkaEL und xexex
IBISXI schrieb:
Zitat vom Schlusswort des Artikels:

"Fortnite ist seit dem Wechsel auf die Unreal Engine 5 auch nach aktuellen AAA-Maßstäben ein wirklich hübsches Spiel"

Wenn das so ist, sollte ich dringend meine Brille überprüfen lassen.
Auf jeden Fall 💯
Alle 2-4 Jahre Augen neu prüfen lassen.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Kazuja schrieb:
Schön das AMD so aufholen kann 👍.
HAse_ONE schrieb:
AMD-Base mal wieder... in 1080p zwei AMD Karten vor der 4090, freu mich schon auf die Kommentare :D

Aber eben nur wenn man TSR und DLSS vergleicht, die eben qualitativ nicht ebenbürtig sind. Mit FSR Performance ist man ja auch vor DLSS Performance - mit deutlichen Unterschieden in der Bildqualität.

Ohne sieht es ja wie gewohnt aus, von aufholen keine Spur, siehe 2 Kommentare weiter oben.
Ergänzung ()

CastorTransport schrieb:
Sind Deiner Meinung nach die "AMD-Base-Benchmarks" gefälscht zugunsten AMDs? Wieso liegt AMD in anderen Benches dann hinter NVIDIA?
Da dort DLSS/FSR/TSR und wie sie alle heißen nicht gleichgestellt werden oder AMD trotz schlechterem Upscaling dennoch hinten liegt.
Hier werden eben unterschiedliche Techniken, die unterschiedliche Qualität aufweisen gleichgestellt - man hätte auch gleich in unterschiedlichen Auflösungen je Hersteller benchen können - hat so leider keinerlei Aussagekraft :rolleyes:
 
Zuletzt bearbeitet:
TSR epic ist besser für ein MP-Spiel geeignet als jedes DLSS-Preset. Zumindest, wenn die GPU schnell genug ist.
Ansonsten skaliert die 4090 halt mies in dem Spiel mit sinkender Auflösung. Ein Test bei 81fps auf einer 4090 in dem Spiel ist mal komplett sinnfrei.
 
MalWiederIch schrieb:
CB bleibt weiterhin unseriös
Sehe ich nicht so und @DevPandi geht ja in #52 auch darauf ein.

Mir geht es nur um eine gesunde Konkurrenz, hab selbst eine Nvidia Karte im PC.
Als Aktionär und PC Enthusiast / User interessieren mich die Entwicklungen einfach, und dann ist es doch schön, wenn wir weiter kommen ;)

Grüße Kazuja
 
  • Gefällt mir
Reaktionen: SweetOhm
fdsonne schrieb:
In 3840x2160 (1920x720) sind es dann 53% avg. zur 4090 und 38% zur 7900XTX.
Nur mal im Vergleich - Horizon Forbidden West -> 7800XT zur 4090 in FHD = 52%, in UHD = 77%.
Das riecht irgendwie nach Limit, wo das AMD Paket irgendwie besser weg kommt.
Dann schau mal wie es aussieht, wenn man nicht unseriös bei Nvidia DLSS und bei AMD TSR nutzt:
IMG_2253.jpeg

Das Problem hier ist die neue, unseriöse Testweise von CB, bei der man davon ausgeht, dass dieselbe Renderauflösung derselben Qualität entspricht - nur wurde das von zahlreichen Fachmagazinen (wie CB selbst) widerlegt :rolleyes:
aufkrawall schrieb:
Ansonsten skaliert die 4090 halt mies in dem Spiel mit sinkender Auflösung.
Warum? Ohne DLSS/TSR sieht es doch wie üblich aus?
Ergänzung ()

Kazuja schrieb:
Sehe ich nicht so und @DevPandi geht ja in #52 auch darauf ein.
Nicht wirklich eine Sache der Ansicht - DLSS/FSR/TSR sind unterschiedliche Techniken und liefern bekannterweise unterschiedlich (gute) Ergebnisse :)
Außerdem geht er/sie in dem Post nicht darauf ein?
Kazuja schrieb:
Mir geht es nur um eine gesunde Konkurrenz, hab selbst eine Nvidia Karte im PC.
Irrelevant? Habe auch Nvidia und AMD Grafikkarten verbaut - tut aber wenig zur Sache :)
Kazuja schrieb:
Als Aktionär und PC Enthusiast / User
Glückwunsch? Werden viele hier sich nennen dürfen - aber auch irrelevant :)
Kazuja schrieb:
interessieren mich die Entwicklungen einfach, und dann ist es doch schön, wenn wir weiter kommen ;)
Garantiert, hat nur wenig mit dem von mir angesprochenen Thema zu tun - der Vergleich sollte eben gegeben sein und wenn man sich die üblichen Tests anderen Fachmagazine in nativer Auflösung anschaut weicht das hier eben sehr stark ab:
IMG_2253.jpeg


Deine Antwort liest sich wie „ Sehe ich nicht so … ich habe aber auch keine Argumente um meine Ansicht zu vertreten - aber andere sehen es auch so, muss schon passen“ :p
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
aber auch irrelevant :)
Komme mir vor wie bei einer Gerichtsserie, Einspruch :D

In Wirklichkeit habe ich zu wenig Ahnung von
MalWiederIch schrieb:

kann also mit dir nicht mithalten. 👍

Dennoch freue ich mich für AMD, auch wenn sie nicht so gut sind wie der Test annehmen lässt.

Stattgegeben, grüße Kazuja
 
  • Gefällt mir
Reaktionen: SweetOhm und funkflix
MalWiederIch schrieb:
Dann schau mal wie es aussieht, wenn man nicht unseriös bei Nvidia DLSS und bei AMD TSR nutzt:
… Du wirfst uns vor, unseriös zu sein, gleichzeitig führst du dazu Benchmarks an, die weder in den gleichen Einstellungen noch vermutlich unter den gleichen Umständen entstanden sind.

Die von dir dargelegten Benchmarks werden in "Episch" gemacht, @Wolfgang hat in Hoch getestet. Wolfgang hat dazu die Testszene beschrieben und dass die Sonnenzeit fixiert wurde, damit man konsistente Ergebnisse erreicht.

Du haust hier nun Ergebnisse rein, wo man bereits am ersten Moment sieht, dass der Vergleich nicht funktionierst, willst hier wegen DLSS/TSR ein Fass aufmachen, aber die Quelle woher die Messergebnisse kommen, gibst du nicht.

@Wolfgang hat bereits in vielen Tests - auch was RT angeht - klargestellt, dass hier Einstellungen teilweise auch so gewählt werden, dass in den Spielen die "Spielbarkeit" im Vordergrund steht und Einstellungen auch mal so gewählt werden, dass die Grafikkarten auf "spielbare" Frameraten kommen.

Das Ganze wird immer wieder - auch hier (!) - transparent gemacht und auch erläutert, sodass jeder eine Einschätzung vornehmen kann!
 
  • Gefällt mir
Reaktionen: Quidproquo77, Mebusprime, NerdmitHerz und 7 andere
knoxxi schrieb:
Fortnite läuft für die die einfach was daddeln wollen, selbst auf einem Toaster.

Auf Full HD läuft das selbst auf meinem 5700G mit 32GB 3600er RAM völlig in Ordnung.
Das glaube ich kaum. Fortnite hat Ende 2022 die Engine gewechselt und ist seitdem sehr anspruchsvoll. Es gibt aber auch noch einen "Legacymode" in den Grafikeinstellungen. Dann läuft das Spiel zwar passabel, sieht aber scheisse aus.
 
MalWiederIch schrieb:
Warum? Ohne DLSS/TSR sieht es doch wie üblich aus?
Was du da behauptest, ist völlig widersinnig. TSR high bringt, ob auf Radeon oder Geforce, (etwas) weniger Performance als DLSS auf GeForces. Die 4090 würde also keinen Deut besser gegen die 7900 XTX abschneiden, wenn man beide mit nativ 1080p TAA testen würde. Dass man so wie CB testet, muss nicht so sein, ist aber auch nicht falsch und bei einem MP-Spiel für hohe Bildraten gut begründbar. Was unseriös ist, sind unfundierte Debattenbeiträge wie der deinige.
 
  • Gefällt mir
Reaktionen: SweetOhm, Redundanz und Kazuja
Komischer Test, da wird TSR vs DLSS verglichen (haben die überhaupt den gleichen performance-Hit?, von der Qualität mal ganz zu schweigen) und dann noch mit reduzierten Details (RT) dem AMD wieder zu Gute kommt...
 
DevPandi schrieb:
Du wirfst uns vor, unseriös zu sein,
Unseriös ist es mit aktivierten Skalierungstechnologien die Leistung der jeweiligen Karten zu testen, weil es schlichtweg unmöglich ist die daraus entstandene Grafikqualität Pixel für Pixel zu vergleichen.

Einfach mal an den eigenen Kopf packen! Ihr testet seit Urzeiten, CPUs in 720p, immer mit der Rechtfertigung nur so ließe sich die eigentliche Rechenleistung vergleichen, aber bei Grafikkarten fangt ihr plötzlich an nicht die Leistung, sondern "Schummel-FPS" zu vergleichen.

Mir ist schon klar, viele werden ebenfalls DLSS/FSR aktivieren, wenn sie dann letztlich die Titel spielen wollen. Es spielt aber auch niemand in 720p und trotzdem laufen Leistungstest für CPUs in dieser Auflösung. Solange es keine Möglichkeit gibt das Ausgangsergebnis pixelgenau zu vergleichen, ist das was ihr testet alles, nur nicht die tatsächliche Leistung der GPUs.
 
  • Gefällt mir
Reaktionen: LCTron und H6-Mobs
Ein Spiel für 12jährige und hier wird wegen irgendwelchen Benchmarks rumgestritten. 🤦‍♂️
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und Kazuja
unterirdische performance, trotz Karten für über 1000€.
 
Naja Vergleiche sollten schon mit gleichen Settings gemacht werden, warum hat man nicht überall TSR genommen? Ansonsten müsste man jeden Benchmark mit Upscaling hinterfragen, so schlecht wie FSR oft abschneidet müsste man da schon manchmal FSR-Q vs DLSS-P testen, würde sich aber auch keiner trauen zu sagen...
 
xexex schrieb:
Ihr testet seit Urzeiten, CPUs in 720p, immer mit der Rechtfertigung nur so ließe sich die eigentliche Rechenleistung vergleichen, aber bei Grafikkarten fangt ihr plötzlich an nicht die Leistung, sondern "Schummel-FPS" zu vergleichen.
Wenn du den Grund für 720p CPU Tests verstanden hast, dann sollte doch auch klar sein, dass man GPU Tests ebenso in 720p, ja sogar 480p machen kann, solange man eben im GPU Limit bleibt.
Genau wie man eine CPU auch in 1440p oder gar 4K testen könnte, wenn man ein Spiel hat, das hier immer noch im CPU Limit hängt.

Für 100 "Schummel-FPS" mit DLSS muss eine GPU genau so hart arbeiten wie für 60 "ehrliche" FPS.
Erst, wenn sie mit DLSS eigentlich 110FPS erreichen könnte und die CPU bei 100 dicht macht, wird es für den GPU Vergleich zum Problem.

Wobei das hier auch nur ein einzelner Spiele-Test ist, daher ist es nachvollziehbarer, wenn in Settings getestet wird, die die meisten so nutzen würden, auch wenn dann eben öfter mal ein CPU Limit in bestimmten Konstellationen rein kommt.

xexex schrieb:
weil es schlichtweg unmöglich ist die daraus entstandene Grafikqualität Pixel für Pixel zu vergleichen.
Okay, von dem Gesichtspunkt aus gehe ich mit.
Man könnte natürlich sagen, wenn alle GPUs mit FSR verglichen werden, bekommt man ein faireres Ergebnis, weil dann die Optik auch identisch ist. Jedoch würde man, wenn das Spiel auch DLSS bietet ja dann bewusst ignorieren, dass die GPUs, die DLSS nutzen können, eigentlich entweder bessere Optik oder bessere Performance bekommen könnten.
Zumindest wäre es aber schon mal etwas besser, als FSR Quality gegen DLSS Quality antreten zu lassen und dann im Ranking z.B. ne 7900XTX 5% vor ner 4080 stehen zu haben, obwohl man mit der 4080 das sauberere Bild erhält und für die Optik, die der 7900XTX Nutzer mit FSR bekommt, auch DLSS Balanced nutzen kann und dann plötzlich 10% vor statt 5% hinter der 7900XTX landet.


xexex schrieb:
Mir ist schon klar, viele werden ebenfalls DLSS/FSR aktivieren, wenn sie dann letztlich die Titel spielen wollen. Es spielt aber auch niemand in 720p und trotzdem laufen Leistungstest für CPUs in dieser Auflösung.
Jeder, der keinen 4K Monitor hat und DLSS/FSR nutzt, spielt effektiv in einer Renderauflösung, die ziemlich nah an 720p ist(ich bin mit DLSS Balanced z.B. bei 830p)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NerdmitHerz, Pro_Bro, Kazuja und eine weitere Person
Taxxor schrieb:
Wenn du den Grund für 720p CPU Tests verstanden hast, dann sollte doch auch klar sein, dass man GPU Tests ebenso in 720p, ja sogar 480p machen kann, solange man eben im GPU Limit bleibt.
Nicht falsch verstehen, ich kritisiere nicht die CPU Tests bei 720p, sondern die GPU Test, wo CB die Welt so dreht wie sie ihnen gefällt.

Taxxor schrieb:
Für 100 "Schummel-FPS" mit DLSS muss eine GPU genau so hart arbeiten wie für 60 "ehrliche" FPS.
Nein! Nicht mal im Ansatz! Das einzige was du siehst ist ein Ergebnis, dessen Qualität sich aber nicht abschließen genaustens beurteilen lässt. Wie das Ergebnis zustande kam und "hart" dabei die GPU gearbeitet hat lässt sich daraus nicht erschließen.

Mir ist übrigens sonnenklar, dass selbst ohne DLSS/FSR schon alles "erschummelt" ist, so funktionieren aktuelle Engines nun mal. Früher ging man solchen "Schummeleien" noch genau nach, und bemühte sich das Ergebnis möglichst genau zu vergleichen und stellen zu entdecken, wo Treiber Sachen möglichst unbemerkt weggelassen haben.

Lang lang ist es her und eigentlich konnte man sich bei CB über viele Jahre über nachvollziehbare Benchmarks erfreuen. In letzter Zeit allerdings, kann man sich das hier alles sparen, weil die Settings nach Lust und Laune ausgewählt werden, um es mal vorsichtig auszudrücken.

Fortnite
1713563387691.png

HFW
1713563365734.png

Starfield

1713563427193.png


AC:M
1713564188200.png


Mal so, mal so, mal links mal rechts.... Ich drehe mir die Welt wie sie mir gefällt. Am Ende reicht mir ein einziges Beispiel aus, um jegliche GPU Tests auf dieser Seite schlichtweg zu ignorieren.

Hogwarts Legacy
https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/
Mit Raytracing übernehmen wenig verwunderlich die GeForce-Grafikkarten die Führung, wobei die Radeons noch ganz gut mithalten können, wenn die RT-Qualität nur auf Hoch anstatt Ultra steht. Dann ist die GeForce RTX 3080 „nur“ 15 Prozent schneller als die Radeon RX 6800 XT in Full HD und die GeForce RTX 4080 9 Prozent schneller als die Radeon RX 7900 XTX in WQHD.
1713563931423.png

Das ist nicht der einzige Titel, bei dem man letztlich sich die Frage stellen darf was das soll. Das hat mit "Benchmarks" wie sie mal früher waren, als noch alle Regler nach rechts geschoben wurden und man tatsächlich die Rohleistung der GPUs verglichen hat, schon lange nichts mehr zu tun.

Aber kommen wir zurück zu meinem Punkt! Entweder man testet so, wie vermutlich viele Spieler das Spiel am Ende spielen werden, also mit irgendwelchen angepassten und nicht nachvollziehbaren Settings, dann kann man sich natürlich auch 720p CPU Tests sparen und CB verkommt zum Niveau der Bildzeitung oder wir sehen vielleicht irgendwann echte GPU Benchmarks. Aktuell kann man sich die GPU Tests hier schlichtweg sparen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LCTron
MrWaYne schrieb:
unterirdische performance, trotz Karten für über 1000€.
Liegt am RT. Spiele das selbst, schaut echt wunderschön aus mit, aber kenne trotzdem keinen der es mit spielt^^
 
xexex schrieb:
Das hat mit "Benchmarks" wie sie mal früher waren, als noch alle Regler nach rechts geschoben wurden und man tatsächlich die Rohleistung der GPUs verglichen hat, schon lange nichts mehr zu tun.
Das Verändern von RT Settings oder generellen Grafiksettings hat aber doch mit DLSS/FSR nix zu tun.

Natürlich verhalten sich AMD und Nvidia GPUs unterschiedlich wenn man die RT Settings anpasst, aber ob du in dem Beispiel von Hogwarts nun eine 4080 und eine 7900XTX mit RT Hoch in 4K nativ oder 4K mit FSR Quality testest, hat auf die Leistung der GPUs im Vergleich keinen Unterschied, solange du konstant im GPU Limit bleibst, was bei 4080 und 7900XTX der Fall ist, wie man im Test auch sieht.

Beim Vergleich von 4090 und 7900XTX macht es hingegen einen großen Unterschied ob mit oder ohne DLSS/FSR getestet wird, auch in 4K, was aber halt daran liegt, dass wir im mittleren 80er Bereich eben ein CPU Limit haben, was dann mit DLSS von der 4090 erreicht wird
 
Zurück
Oben