Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Der aktualisierte GPU-Benchmark ist eine schöne Sache. Und da steckt jede Menge Arbeit drin. Das muss man loben.

Wenn es um das Raytracing-Setting in Spielen geht, so ist es unmöglich bei einer buntgemischten Käuferschaft jeden zufrieden zustellen. Ich persönlich kann damit leben, wenn man jetzt den Anspruch diesbezüglich nach oben geschraubt hat. Es macht ja auch Sinn bei der Verwendung der Technik einen deutlichen optischen Einfluss auf die Spieleoptik zu erhalten. Das ist bei "RT Lite" meistens nicht der Fall, wobei ich persönlich ein Fan dieser günstigen und dezenten Aufwertung bin. Für mich hat das immer etwas von Vernunft im Umgang mit aktuell vorhandenen Hardwareressourcen. Das heißt wenn der Leistungsverlust durch Raytracing gegenüber reiner Rasterisierung zu groß wird, dann verzichte ich darauf, anstatt meine Bildraten "abzuwürgen". So ähnlich wie bei einen kleinen Elektromotor, den man eine zu große Last entgegensetzt. Zumindest gibt mir das ein gutes Gefühl beim Gaming.
 
Vielen Dank für eure Arbeit, ComputerBase! 👍

Hätte mich noch über eine RTX 3070 im Portfolio gefreut, zwar auch schon etwas älter, aber noch eine gute "Mittelklasse-Karte" 😄 Man kann die Leistung jedoch mit der RTX 4060 Ti vergleichen, insofern schon okay 😁
 
Hab mir ein neuen PC zusammen gestellt, mit ner 7800xt. Hab bisher nur Avatar aber in UHD, FSR Qualität, Ultra Settings plus Frame Generation bekomme ich zwischen 70 und 100 fps.
Frame Generation mit einzubinden im Test wäre nicht verkehrt, da es wirklich erstaunlich viel bringt.
 
PeacemakerAT schrieb:
Du verstehst glaub ich nicht das man Leistungstests mit den fordernsten Spielen macht. Valorant, Dota und Konsorten laufen ja eh auf jedem Toaster, was interessieren da obs 300, 400 oder 800 FPS sind und was die GPU da säuft?
Was interessiert mich ein Leistungstest eines Spiels das entweder schon Monate alt ist und keiner mehr spielt? Generell werden oft Games gewählt die eher eine Minderheit zocken. Meine Vorstellung ist es wie sich die GPU-Generation bei Langzeitgames mitlerweile entwickelt hat. Das können diese Test nicht abbilden. Und wir alle wissen, Day0 Patch, 1. Woche Patch , 1 Monats Patch. Die FPS und werte ändern sich so schnell bei den Gamer, da nicht mal die Option zu wählen halte ich für ganz schwach.
 
Liebes Computerbase Team,

vielen Dank für die Aktuallisierung und die ständige Arbeit die ihr hier in Benchmarks steckt. Ich schaue mir die Benchmarks zu allen Spielen an, auch wenn mich die Spiele an sich manchmal nicht interessieren.

Also treuer Pro Unterstützer hätte ich noch einen kleinen Weihnachtswunsch. :D

Zumindest einmal, wenn man so einen Benchmark aktuallisiert, auch UWQHD mit testen.
Nicht bei jedem neuen Spiel, sondern halt einmal, dann hätte man mal so ein generelles Gefühl wo man sich mit UWQHD mit der entsprechenden Graka zwischen WQHD und UHD befindet und kann sich dann für zukünftige Spiele ein wenig besser aussrechnen wo man landen wird.

Und ja, ich weiß, das ist von Spiel zu Spiel, von Engine zu Engine, von Feature Set zu Feature Set (DLSS und co) unterschiedlich. Und jedes neue Spiel wird sich auch immer anders Verhalten, so das man nie eine verlässliche Rechnung anstellen kann wenn nicht wirklich die Auflösung getestet wurde.
Aber einmal um so ein Gefühl dafür zu bekommen und zukünftig selber schätzen zu können fände ich klasse.

Und mir ist natürlich auch klar das man das jetzt für den Vergleich nicht mehr machen kann, da man ja ansonsten noch mal alle Grakas noch mal einbauen müsste. :D

Oder mal die wichtigen Engines im Vergleich mit meinem generellen Vertreter in Full-HD, WQHD, UWQHD und UHD testen?

Aber gut, wünsche darf man haben und sie müssen ja auch nicht in Erfüllung gehen.
Wie oben schon gesagt, super Arbeit, macht weiter so :daumen:
 
Taxxor schrieb:
Da kann ich die 3090 testen und danach die 4090 und stelle fest, sie ist 50% schneller. Wiederhole ich den Test nochmal, ist sie plötzlich 60% schneller, weil irgendwas anders gelaufen ist, als in der vorherigen Testszene.
Nochmal wiederholen und es sind nur 40% etc etc.
Aber diese 50-60% schneller bei einem Game wie Dota (wo wie z.b. 1 Komplettes Game als Bench nehmen würden) sind in einem FPS Bereich der überhaupt nicht mehr entscheident ist. Aber die Nebeneffekte werden hier viel plastischer. Die 4090 bringt mir vielleicht 70FPS mehr in Dota, Super. Bei bereits vorhanden 250FPS.... Wirklich wichtig.
Sinkt dabei die Stromaufnahme? Kann ich die 250FPS fixieren und dadurch massiv meine Watt senken? So kommen wir auf Szenarien die mmn wichtiger sind als ob Game XY bei GPU AB 10+ FPS generiert.
 
  • Gefällt mir
Reaktionen: Redundanz
P4ge schrieb:
Aber diese 50-60% schneller bei einem Game wie Dota (wo wie z.b. 1 Komplettes Game als Bench nehmen würden) sind in einem FPS Bereich der überhaupt nicht mehr entscheident ist.
NA dann haben wir ja schon 2 Gründe sie nicht im Parcours zu haben: Fehlende Reproduzierbarkeit und fehlende Relevanz.
P4ge schrieb:
Sinkt dabei die Stromaufnahme? Kann ich die 250FPS fixieren und dadurch massiv meine Watt senken? So kommen wir auf Szenarien die mmn wichtiger sind als ob Game XY bei GPU AB 10+ FPS generiert.
Und diese Daten sind genau so unmöglich reproduzierbar zu testen, wie die FPS, warum verstehst du das nicht?

Dann bekommst du bei 3 Messungen auch 3 verschiedene Verbrauchswerte, je nach dem was in der Szene jeweils los war und damit kannst du auch eine gemessene Verbrauchsveränderung unmöglich einem Update etc zuweisen, denn dafür müsstest du in der Lage sein, mehrmals die exakt gleiche Szene zu testen.
 
Zuletzt bearbeitet:
Warum die Arc A770 und die Arc A750 so unglaublich schnell in Jagged Alliance 3 sind, weiß vermutlich Intel selbst nicht.

Vermutlich hat dort ein Programmierer ein paar Stunden für die Arc optimiert, was ansonsten wohl kaum passieren wird. (wenn in der Wirtschaft die vielleicht 1% Marktanteil interessieren würden, würden auch alle Spiele für Proton/Wine optimiert. Nein, passiert nicht, stattdessen muss immer von der anderen Seite zugearbeitet werden, auch wenn das wenig sinnvoll ist.) @Wolfgang
 
Wolfgang schrieb:
Das ist aber doch eine ganz andere Art von Messreihe und kein klassischer Grafikkarten-Artikel. Und auch bei diesen kann man keine Ergebnisse von Fortnite und co. lange mitschleppen. Die muss von Asap benchen, die Ergebnisse muss man eh nach wenige Wochen wegschmeißen.
Es war ein einfacher Vorschlag. Der in meinen Augen wesentlich simpler zu realisieren gewesen wäre als irgendein Spiel welches im Parkur vorhanden ist.
Das die Option nicht genutzt wird, ok. Das der Sinn dahinter nicht gesehen wird, finde ich schon schwach. Zu Argumentieren das die Ergebnisse weggeworfen werden müssen ist da nur noch lachhaft.

In dem Fall müsste man ein Produktiv-System als Testparkour wählen, denn eure Ergebnisse können SO auf keinem PC System sonst irgendwo nachvollzogen werden, denn niemand kauft sich einen kompletten neuen PC um darauf SOFORT nur 1 Game zum zocken zu installieren.

Aber den vorwurf mache ich nicht. Ich finde es halt nur schwach.
 
Malk wieder ein Popcorn Thread. Die 7900 XTX fällt in RT noch weiter zurück, und schon geht die "Heulerei" wieder los.
 
Respekt für die Arbeit, aber ich muss wirklich sagen, dass ich die gesamt Tests, immer seltsam finde. Da variiert dann der Abstand zwischen einzelnen Modellen immer stärker, als man eigentlich denkt und es aus den anderen Tests vermuten sollte... Ebenfalls die Arc karten, ich selbst habe nur die 770 in einem bastel PC, den ich seit Monaten nicht benutzt habe, aber meine Erfahrung kam mir irgendwie stärker vor, als es dieser Test suggeriert, auf YouTube wird die Performance häufig auch besser dargestellt oder die anderen schlechter - je nachdem
 
Die 4080 underperformed etwas mit den anderen Spielen im Vergleich zur RTX 4070Ti und den Radeons, dafür ist sie in 4K mit DLSS flotter als früher.

Full HD von 18% --> 17% Vorsprung
WQHD von 24% zu 21% Vorsprung
Ultra HD von 28% zu 24% Vorsprung.

Interessanter Test mit sehr vielen Spielen, herzlichen Dank.
 
@Wolfgang :
Dankeschön für diesen sehr aufwändigen neuen CB GPU Parcourtest. Respekt !.
Könntest du evt. doch noch eine weitere Karte u.a. RTX 2070 oder 2070 Super ( 8GB / 448.0 GB/s ) neben den genannten 5700 XT/2080 TI in den neuen Benchmark aufnehmen. Die RTX 2070er sollten ansich doch gut gealtert sein ?!.
 
Zuletzt bearbeitet:
Mir fehlt einfach immer die Leistungsaufnahme. Das ist für mich ein sehr wichtiger Punkt. Deswegen gefallen mir die Tabellen von der8auer immer am besten. Das Problem ist nur, dass er nicht so viel testet wie jeder andere.

1702911811363.png


Der Power Target Test ist mit Abstand mein lieblings Test.

1702911869241.png


Beide Bilder kommen aus dem 4090 release Test.
 
  • Gefällt mir
Reaktionen: danyundsahne, ComputerBase101, BlackVally und 3 andere
@Wolfgang @Jan wie immer Danke für die sehr ausführlichen Tests.
Mein Vorschlag und Wunsch wäre es eine RTX 3090 in den Parcours zu nehmen um zu sehen, wann die 12GB der 3080 nicht mehr ausreichen und wann Ampere einfach nicht mehr leistungsfähig genug ist. Die 12GB waren damals ein sehr großes Thema und würde es gerne weiterverfolgen.
 
Ich plädiere dafür, zwecks vergleichbarkeit mit eigenen karten zumindest 1. Karte der vergangenen paar generationen (nvidia zb rtx2000 und gtx1000) mitzutesten. Die wenigsten wechseln von einer gen auf die nächste (rtx3000->4000)
 
  • Gefällt mir
Reaktionen: Ja_Ge und ro///M3o
Wolfgang schrieb:
Wie im Artikel steht, eine 5700 XT und RTX 2080 Ti werden Anfang des Jahres noch hinzu gefügt :)
Weitere Karten sind nicht geplant - es sei, diese werden vehement gefordert
Klasse, danke ganz herzlich. Freue mich drauf :-)
 
  • Gefällt mir
Reaktionen: Ja_Ge
Zuerst einmal besten Dank für die Bekanntgabe der Änderungen im Spieletestparcours von CB :) @Wolfgang , natürlich drehen sich die Uhren weiter und ist eine Aktualisierung des Parcours und Anpassung der Testverfahren eigentlich zu begrüßen, aber es gibt ebenso kritikwürdiges.

Zu letzterem zähle ich etwa die Anzahl (m.E. unnötig vieler) Unreal Engine 4 Spiele im Parcours (hätten bspw. 2 da nicht gereicht?) und Hunt : Showdown als CryEngine Spiel, welches auch immer noch laufend geupdatet wird und immern och populär ist, ist immer noch nicht enthalten im CB Parcours und dann wundert man sich, warum deutsche Entwickler saich so schwer tun, wenn nicht einmal die hemische Fachpresse diese unterstützt/für repräsentativ genug hält.

Was ist wenn Squadron 42 irgendwann kommt, wird das dann auch nicht mit aufgenommen werden oder wieso nimmt man eine Testsequenz vom ständig weiter entwickelten Star Citizen nicht mit in den Testparcours auf?

Des Weiterem halte ich das komplette Weglassen von Spielebenchmarks in nativen Auflösungen (mindestens in Full-HD, um einen Vergleich des Upscaleeffekts der einzelnen Techniken mit dem von nativer Auflösung als Basiswert ganz ohne Upscaling zu ermöglichen und prozentual abzubilden) weiterhin für einen Fehler (für eine Web-/Techseite, der es primär eben um PC Hardware gehen sollte und nicht um Steam Deck Unterstützung von Spielen, jedes RT-RT Mätzchen-Setting, MetaCritic Scores für Spiele, o.ä.).

Upsampling ist heutzutage fast immer sinnvoller, als die Grafikdetails zu reduzieren.

Genau, aber wie viel da durch K.I. entgegen dem ursprünglichen Design noch dazugedichtet bzw. von dieser grafisch umgewandelt wird, ist eben dann auch nicht mehr ersichtlich, wenn es an der nativen Basisdarstellung mangelt.

Somit ist ein upgescaltes Spiel dann auch nicht mehr authentisch wie ein nativ dargestelltes, welches durch Upscaling eben nicht u.U. die Grafik modifiziert (egal, ob man das individuell nun positiv oder negativ im Einzelfall beurteilt, das geht in die gleiche Richtung wie die Rasterizer vs. RT-RT Darstellung im Avatar : Fontiers of Pandora Spieletestartikel vor kurzem) und so dargestellt wird wie vom Entwickler eigentlich usprünglich angedacht.

Inwiefern die Umstellung der Test-Modi dann auch einzelne Grafikkartenhersteller bevor- und benachteiligen wird, wird man abwarten müssen (ich rechne damit, dass dieses nVidia dGPUs besser aussehen lassen wird als vorher, ziemlich pünktlich vor dem für Januar 2024 kolportierten RTX 4000er "Super" Marktstart, so ein Zufall aber auch).

Mir fehlt übrigens die Intel Arc A(lchemist) 580 als die relativ konkurrenzlose Einsteiger-Gaming-Grafikkarte unter 200 Euro bei Euch komplett im Test-Aufgebot, zumal ich glaube, dass diese für die mehr Leute deutlich relevanter ist als etwa die Arc A(lchemist) 750 aus gleichem Hause, zumal sich die anderen Entwickler (nVidia und AMD/RTG) leider schon länger von dem eigentlichen Preisbereich für Einsteiger-dGPUs mit 8GB Speicher (unter 200 Euro) verabschiedet haben ;).

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Millennial_24K
aufkrawall schrieb:
Wie lange hattest du das auf Stabilität hin geprüft, fünf Minuten?

Die läuft in meinem Laptop.

Da ich ihr nie mehr gönne als 100 Watt, ist die Frage der "Stabilität" bei mir eher eine Frage der Kühlung.

Und ganz klar, mit 2+Ghz werden die Fingerchen warm und die Kiste brüllt dich an. Den Unterschied zwischen 2.1 Ghz und 2.2 Ghz sehe ich dann aber wirklich nur in Benchmarks.

Messbar ist es aber dennoch.

Als sie nagelneu war, machte sie noch folgendes:

gpu.jpg

Aktuell ist sie nicht einmal mehr mit der Brechstange bereit, folgendes zu leisten:

tflop.jpg

Ich muss dringend mal putzen und die Paste tauschen. :heilig:

mfg
 
Zurück
Oben