Test Gaming-Grafikkarten 2025 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

w0mbat schrieb:
Sorry, aber Cyberpunk rausnehmen und dann mit "Empire of Ants"
Spiele auf Basis der RED-Engine wird es nicht mehr geben.
Witcher 4 wird auch die UE5 nutzen.

Spiele auf Basis der UE 5.4 ermöglichen einen Blick auf zukünftige Spiele.
 
  • Gefällt mir
Reaktionen: Che-Tah
Chismon schrieb:
Full HD wird hier zukünftig größtenteils weg gelassen (es sei denn die Spiele sind extrem fordernd oder unterirdisch optimiert und dann wird man um ein zurück rudern evt. nicht herum kommen) und dafür kommen dann K.I. Benchmarks dazu.

Da muss jede/r selber entscheiden, ob die Tests von ComputerBase (CB) an Lese-/Kommentierwert zulegen oder einbüßen werden.
Hier darfst du dann aber nicht vergessen, dass auch eine neue Auflösung hinzu gekommen ist, die es vorher nicht gegeben hat und die bei der CB-Leserschaft mittlerweile häufiger genutzt wird als Full HD. Insgesamt werden mit dem neuen Testparcours mehr Inhalte getestet als zuvor, die AI-Benchmarks haben ja nichts ersetzt, sondern sind noch oben drauf gekommen.
kachiri schrieb:
Was ich btw. interessant finde... Warum testet ihr konsequent die 16 GB Varianten nicht mit? Es wird permanent betont, dass 8 GB bei 1080p kaum mehr reichen - und dann wird halt nicht einmal wenigstens die 7600 XT mit reingenommen, um das auch mal deutlich zu zeigen.
Oder ist es so häufig doch kein Faktor, dass man das gar nicht sehen würde?
Das liegt primär daran, dass die 8-GB-Karten in den Fällen die Standard-Varianten der Grafikkarten und daher deutlich mehr verbreitet sind. Darüber hinaus haben wir die Modelle mit mehr Speicher wie im Falle der RTX 4060 Ti auch nicht unbedingt.
CruellaDE schrieb:
@Wolfgang
Vielen Dank für die ganze Arbeit ! 😊

Ich gehe davon aus, dass Final Fantasy kein UWQHD unterstützt? Vielleicht die Info noch in die Tabelle packen.

Wäre es eigentlich sehr aufwendig, den durchschnittlichen VRAM "Bedarf" zu messen für die verschiedenen Spiele und Auflösungen? Der verhält sich wahrscheinlich nicht ähnlich wie die Leistung?

Also zum Beispiel verliert die 4080 von WQHD auf UWQHD ca. 15% fps, aber der VRAM-Bedarf wird wohl nicht um 15% steigen?
Ja, sowohl FFXVI als auch Lego unterstützen kein WQHD und fallen in den Benchmarks dann entsprechend raus.

Die durchschnittliche VRAM-Allokierung habe ich ohnehin in den Benchmarks-Logs, die Werte sind also ohnehin da. Ich kann hier durchaus wenn die Zeit mal da ist schauen, wie sich die VRAM-Adressierung je Auflösung verhält, ob das aber sinnvoll ist, ist eine andere Frage (man sieht ja wirklich nur die Adressierung und nie das, was wirklich gebraucht wird). Generell wird schon immer mehr VRAM bei höheren Auflösungen verwendet, die Zahl steigt für gewöhnlich aber nur gemächlich an.
Raidr schrieb:
Einige aktuelle Titel reinnehmen schön und gut, aber Cyberpunk und Alan Wake 2 raus und dafür unoptimierte oder nicht relevante Spiele rein (Stalker, Empire of Ants) ist eine komische Entscheidung.
Stalker ist aktuell eines der beliebtesten Spiele - irrerelevant ist das bei weitem nicht, ganz im Gegenteil.
Das Hauptproblem ist da schlicht, dass in den letzten 2 Jahren unglaublich viele technisch interessante Spiele erschienen sind, die potenziell interessant für Grafikkarten-Tests sind und potenziell zeigen, wohin die Reise in der Zukunft geht. Da habe ich mich dann schlicht dazu entschieden, in die Richtung zu gehen, was leider alle anderen Spiele aus dem Parcours rausgeschmissen hat. Optimal finde ich das auch nicht, aber hier muss dann schlicht der Arbeitsaufwand gekürzt werden.

Alan Wake und Cyberpunk werden aber in den RTX-5000-Artikeln als RT- und PT-Benchmarks nochmal zurückkehren :)

Glyphus schrieb:
Ist es technisch möglich, bei den Balken Standardabweichungen oder Standardfehler anzugeben? Damit würde man auf den ersten Blick sehen wie gleichmäßig sich eine Karte über die verschiedenen Spiele verhält und ob eine Karte signifikant schneller als eine andere Karte ist.
Theoretisch möglich ist das, aber dazu müssten dann ja die Diagramme größer geändert werden und neben den AVG-FPS und den Perzentil-FPS eine dritte Messreihe aufgemacht werden. Entsprechende Messungen wurden bis jetzt in den Kommentaren aber noch nicht wirklich gefordert - vielleicht bist da gar der erste, der danach fragt. Wenn diesbezüglich mehr Feedback auftaucht, ist das sicherlich eine Überlegung wert.
 
  • Gefällt mir
Reaktionen: floTTes, CruellaDE und Jan
Super Testparcours, vor allem mit 1440p im Fokus. Das einzige was ich zu bemängeln hätte, ist der Impact von Indiana Jones. Laut dem Benchmark ist meine 3080 zu nichts zu gebrauchen. In der Praxis sieht es aber so aus, dass ich alles auf Maximal stehen habe, außer dem Texturpool (High). Das Game sieht damit phänomenal aus und ich habe an die 80-90 fps. Zudem sind die visuellen Unterschiede laut YouTube äußerst gering, wenn man den Texturpool höher stellen kann.

Ich verstehe natürlich den Ansatz dahinter, aber wenn man es ganz streng sieht, hätte man das Game dann mit Full Ray Tracing testen müssen (und da sieht es deutlich anders aus, als mit dem normalen RT). Und dann wäre es auch nur auf 4070 aufwärts spielbar...
 
  • Gefällt mir
Reaktionen: floTTes
ich kann verstehen das nach den Umfragen upscaler genutzt werden auch wenn diese unnötig sind das wäre OK wäre da nicht der kleine Hinweis des cpu limits.
Neben der Tatsache das alle upscaler eine unterschiedliche Bildqualität haben und eine unterschiedliche gpu last
Das macht vergleiche nahezu unmöglich
Schonmal überlegt das die meisten mit ner gpu von 2016 bzw 2018 haben und diese weit weniger ein cpu limit problem haben

abseits den Neukäufern die meistens zen3 oder zen4 haben , sind die meisten wohl mit nenn zen2 oder ci10 11th gen unterwegs
Da sind die meisten auf ner 60class 70class unterwegs was so grob 9tf oder 16tf sind amd entspräche das der 600er 700er class
Daraus ergibt sich dann eben dieser trend zu dlss fsr insbesondere in 1440p

mein Ergebnis aus meinen Test der rtx4070 mit nenn zen2 cpu ist Pures cpu limit in nahezu allen spielen auch neuen, abseits pathtracing.
Da sind upscaler keine option auf höhere Auflösung bringt auch so gut wie nix 1440p gleiche fps also kein unterschied 2160p zu wenige rop (standard bei mir 1080p)
meine Lösung zum passenden Zeitpunkt ne neue cpu war sowieso unausweichlich
Das Problem, der nächste Wechsel zur rtx60 Serie wird es nicht geben und ne neue cpu steht dann auch sicher.

Wieso ich darauf komme nun diese Test Philosophie stellt zwar augenscheinlich die Realität dar was man bekommt wenn man ne neue gpu bekommt aber es fehlt ein entscheidendes detail
CPU LIMIT
Am einfachsten kann man das mit 2 Testsystemen klarstellen eins mit ner alten cpu und eins mit ner aktuellen schnellsten cpu für games.
mein rat am4 und am5 system intel fällt raus da die letzte gute gen ci 11th war. (2020)
Das wäre
r7 9800x3d vs r7 3700x
beide die Mitte der cpu gen beider Plattformen
Was intel angeht so1851 ist eol und so1200 nur die ci 10th gen brauchbar etwa den ci7 10700k
Später zu zen6 etwa 10800x3d ersetzt den 9800x3d
Der Kontrast ist wichtig
Will man das möglichst klein halten, muss die gpu load angegeben werden. Dann spart man sich mehr als zwei Systeme
Zwar skaliert gpu load nicht unbedingt mit den fps linear, liegt auch am hintergrundlast des OS. Es ist aber ne Tendenz

mal anmerken mit nenn gpu load von 52% wird mit dlss kein fps mehr generiert hat aber ein schlechteres Bild.
Das es so viele nutzen liegt an deren schlechten gpu von 2016 oder 2020
Und wenn man ehrlich ist kaufen die wenigsten nach einer gen ne neue gpu und die genwerationen liegen so 2 Jahre dazwischen womit 3-4 Jahre die norm sind fürn Wechsel.
ich sagte schon 2020 das kommende gpu gen massiv mit dem cpu limit Probleme bekommen werden.
Ein größere Auflösung bringt hier nix, da diese class immer zu wenig rop haben um bei 2160p genügen fps zu generieren zu können
Sprich man ist auf die Auflösung 1440p oder 1080p limitiert bliebe nur noch mehr dxr in games anzuwenden. Darauf hat der Nutzer kein Einfluss und da dxr sich zunehmend cpu fordernd erweist ist das wirklich keine Lösung.
Einzig rendern in pt ist de Kompromiss nur da reicht die gpu perf. nicht aus.

nebenbei müssen Kompromisse gemacht werden man kann nicht jedes mal alle spiele nochmal durchtesten nach ner neuen gpu launch und Januar wird hart
rtx5090 rtx5080, rx8800xt rx8700xt und möglich rx8600xt
feb nochmal mit rtx5070ti rtx5070
märz rtx5060ti rtx5060
Das ist zeitlich nicht stemmbar auch mit euren 21 games nicht

Insbesondere beim rtx5090 launch muss gpu load angegeben werden da ansonsten kein fps mehr herauskommt obwohl die gpu etwa 30% schneller sein muss laut alu und Takt.
 
Wolfgang schrieb:
Stalker ist aktuell eines der beliebtesten Spiele - irrerelevant ist das bei weitem nicht, ganz im Gegenteil.
Ich denke die Adjektive waren schon in der Reihenfolge den Spielen in der Klammer zugeordnet, also unoptimiertes Stalker und nicht relevantes Empire of the Ants.


Ich war tatsächlich auch überrascht die Ameisen hier zu sehen
 
Ich bin leider nicht so Fit was die ganzen Grafikkarten anbelangt, aber warum ist ein 6700 XT und eine 6800 XT in der Liste aufgeführt, aber eine 6900 XT nicht?
Wenn ich die Leistungsdaten vergleiche, sollte doch eine 6900 XT auch aufgeführt sein?
 
syfsyn schrieb:
mal anmerken mit nenn gpu load von 52% wird mit dlss kein fps mehr generiert hat aber ein schlechteres Bild.
Ich hab immer ein FPS Limit gesetzt und trotzdem DLSS immer an, eben weil es ein besseres Bild generiert(zusätzlich zum geringeren Verbrauch).
Die einzige Ausnahme in letzter Zeit war Indiana Jones, aber da brauchte ich es sowieso aus Performance Gründen
Ergänzung ()

blodern schrieb:
Ich bin leider nicht so Fit was die ganzen Grafikkarten anbelangt, aber warum ist ein 6700 XT und eine 6800 XT in der Liste aufgeführt, aber eine 6900 XT nicht?
Wenig Mehrwert beim Testen für insgesamt mindestens 63 benchmarks, die man zusätzlich machen müsste. Die 6900XT hat den gleichen VRAM, den gleichen Cache, die gleiche TDP, einfach nur ein paar Shader mehr. Hier kann man einfach grob 6800XT +10% rechnen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Geckoo, Quidproquo77, floTTes und 6 andere
Taxxor schrieb:
Ich hab immer ein FPS Limit Gesetz und trotzdem DLSS immer an, eben weil es ein besseres Bild generiert
me too. Aber zB schon bei Forbidden West schafft meine 4070 keine 100fps in 3440x1440 :D

Dank UV ist sie aber trotzdem meist unter 60°C und durch Deshroud schön silent.
 
Syrato schrieb:
Eher in einem COU Tests.
Ja, beides beim MSFS 24. In ersten Amateur Benchmarks in Foren und auf YT ist die Tendenz: anspruchsvoller als MSFS 20; CPU Bedeutung runter, GPU Bedeutung hoch, x3d Bedeutung runter, Kernzahl Bedeutung hoch. Ich warte halt gespannt auf Profi Tests.
 
  • Gefällt mir
Reaktionen: Syrato
Blumentopf1989 schrieb:
Mich verwundern die niedrigen FPS Ergebnisse immer wieder, z.B. in CoD komme ich auf deutliche höhere Werte, trotz max Settings.
Testsequenzen können sich unterscheiden. Dazu kann es auch noch unterschiede bei den Windows-Einstellungen und Co zum tragen kommen.
Haldi schrieb:
Trotzdem sehe ich ein wieso sie als Auswahl von Technisch aktuellen Spielen, die an sich auch Spielenswert sind, in die Liste aufgenommen wurden.
Mit den Tests wird ja versucht eine gewisse Aussage zum jetzigen Zeitpunkt zu treffen. Klar kann man darüber reden, ob man auch bestimmte Longtime-Favorits mit testet, nur wäre da die Aussagekraft doch begrenzt.

Viele Spiele die oft gespielt werden, laufen gefühlt auch auf Toastern mit 120 fps oder laufen irgendwann eher in ein CPU-Limit als ein GPU-Limit.

Sehe ich mir mal mal Overwatch 2 und Co an, dann kommt da oft eher die CPU an ihre Grenzen. Dazu kommt auch, dass die Verbindung und Co hier eine Rolle spielen kann.
just_fre@kin schrieb:
Ich denke nicht, dass das zielführend wäre.
Fortnite, Overwatch 2 und Co sind schwer zu testen. Overwatch 2 nutzt ich prinzipiell die Testarena für die Benchmarks, weil es da "kontrollierbar" ist.

Nur hast du bei vielen dieser Spielen auch gerne mal eine Verbindung aus Ping zu FPS. Das
usernamehere schrieb:
Overwatch 2 und Apex Legends
Können wir mit Dienen, also zumindest einen der beiden:
https://www.computerbase.de/artikel...4060-test.87229/seite-3#abschnitt_overwatch_2
https://www.computerbase.de/artikel...eich-2023.86243/seite-3#abschnitt_overwatch_2
https://www.computerbase.de/artikel...4070-test.86547/seite-3#abschnitt_overwatch_2

Wird auch da weiterhin Bestandteil bleiben. :)
 
  • Gefällt mir
Reaktionen: floTTes und pabu.roar
@blodern
das liegt daran das rx6700xt n22 ist und rx6800xt n21 ist quasi der high end chip von amd 2020
Diese beiden trennen grob 9tf
zwischen rx6800xt und rx6900xt nur 3tf oder knapp 10%

Nun ich denken nicht das dlss ein besseres Bild hat als nativ OHNE taa
 
Taxxor schrieb:
Ich denke die Adjektive waren schon in der Reihenfolge den Spielen in der Klammer zugeordnet, also unoptimiertes Stalker und nicht relevantes Empire of the Ants.


Ich war tatsächlich auch überrascht die Ameisen hier zu sehen
Die Ameisen waren ursprünglich auch gar nicht eingeplant. Als ich mit dem Testen der ersten Karten angefangen habe, war Empire of the Ants nicht dabei, sondern stattdessen Everspace 2. Warum auch immer, AMD-Karten laufen in dem Spiel aktuell unfassbar langsam (ich meine wirklich das, also nicht nur langsamer), sodass ich nach ein paar Karten dann Everspace 2 gegen Empire of the Ants (beides mit UE 5.4) ausgetauscht habe.
blodern schrieb:
Ich bin leider nicht so Fit was die ganzen Grafikkarten anbelangt, aber warum ist ein 6700 XT und eine 6800 XT in der Liste aufgeführt, aber eine 6900 XT nicht?
Wenn ich die Leistungsdaten vergleiche, sollte doch eine 6900 XT auch aufgeführt sein?
Die 6800 XT und die 6900 XT sind ja vergleichbar schnell, das tut sich nicht Viel. Da die RX 6000 Generation jetzt eben schon älter ist, ist diese nur noch mit wenigen Karten vertreten - darunter fällt die RX 6900 XT dann nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ro///M3o, Jan, pabu.roar und eine weitere Person
Toller neuer Testparkour! Auch super ist der Einzug von 3440 x 1440 im Testparkour. Danke dafür!

Hier zeigt sich deutlich, dass die RTX 3080 mit 10 GB deutlich auf dem absteigenden (eher abbrechenden) Ast befindet. Ich muss meine endlich durch eine neue Grafikkarte ersetzen. Spiele wie Indiana Jones, Dragon Age und Star Wars Outlaws warten in meiner Bibliothek darauf, gespielt zu werden.
 
Naja, die ist wie eine 7800XT. Finde ist gut gealtert..
 
Wolfgang schrieb:
Theoretisch möglich ist das, aber dazu müssten dann ja die Diagramme größer geändert werden und neben den AVG-FPS und den Perzentil-FPS eine dritte Messreihe aufgemacht werden. Entsprechende Messungen wurden bis jetzt in den Kommentaren aber noch nicht wirklich gefordert - vielleicht bist da gar der erste, der danach fragt. Wenn diesbezüglich mehr Feedback auftaucht, ist das sicherlich eine Überlegung wert.
Tatsächlich fordere ich das hier schon seit einiger Zeit. Bei anderen Formaten wie Hardware Unboxed oder Gamers Nexus ebenfalls- wurde aber bisher nicht erhört. Vielleicht bin ich einfach wirklich der einzige, der darin einen relevanten Mehrwert sieht.

Ich würde das gar nicht über eine Messreihe realisieren sondern in den bestehenden Graphen einpflegen.

Hier mal ein Beispiel mit meinen "hübschen" Excel Skills.
Ich habe die ersten 6 Spiele genommen (BK, COD:BO6, DA: Veilguard, DD, Empire of Ants und F1) habe jeweils die FPS durch den Durchschnitt aller Karten in dem Spiel geteilt (Normalisierungschritt 1) und danach den Durchschnitt einer Karte aus allen Spielen gebildet. Anschließend auf das Leistungsniveau der 4090 normalisiert (dann landet die bei 100%) und die Standardabweichung aus den Spielen berechnet.
GPU Statistik.PNG
Die erste gute Nachricht ist: durch die Normalisierung kommt man auf das selbe Ergebnis wie der geometrische Mittelwert.

In dem konkreten Fall sieht man, dass alle GPUs etwa die gleiche Standardabweichung haben - sich also bezüglich ihrer relativen Performance in allen Spielen ähnlich verhalten. Was auffällt ist aber, dass der Fehlerbalken bei AMD immer ein bisschen größer ist, es also zu etwas mehr Schwankungen kommt. (zum Beispiel 7900XTX vs 4080S oder 7900GRE vs 4070S).

In den Datensatz hier gibt es keine großen Überraschungen bezüglich der Leistungen. Wenn aber die Unterschiede etwas größer sind - nehmen wir an der Abstand zwischen 4070S und 7900GRE würde 5% betragen, dann könnte man aber aus dem Graphen ableiten, dass die Karte trotzdem nicht signifikant schneller ist, da sich die Fehlerbalken stark überlappen (seeeehr vereinfacht ausgedrückt - man kann das auch berechnen, aber das führt vielleicht zu weit.) Den Zweiten Fall habe ich auch illustriert.

GPU Statistik 4070S + 5%.PNG
 
  • Gefällt mir
Reaktionen: floTTes, die und DevPandi
Ich denke das Problem wäre hier auch, dass man damit zu viele Leute verwirrt. Selbst Basisstatistik und deren Verständnis sind nun einmal kein Allgemeinwissen.
 
  • Gefällt mir
Reaktionen: Geckoo, pabu.roar und DevPandi
Glyphus schrieb:
Die erste gute Nachricht ist: durch die Normalisierung kommt man auf das selbe Ergebnis wie der geometrische Mittelwert.
Da kurz als Anmerkung: wir haben erst den Prozentualen-Graphen auf Wunsch der Community abgeschafft und durch die "fps" ersetzt.

Ansonsten finde ich deine Ideer durchaus gut.
 
Ich hätte mir noch COD Warzone in einer großen Map sowie MSFS 2024 in einer komplexen Szene gewünscht
 
UWQHD Benchmarks - Danke!!
 
  • Gefällt mir
Reaktionen: ro///M3o
Zurück
Oben