Test Gaming-Grafikkarten 2025 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

also ich lese die diagramme bei den test schon länger nur mit halben auge, wegen dem upscaling (damit sind die balken wertlos zum betrachten der leistung der grafikkarten). Da der fokus sich hier endgültig drauf schiebt, dann ignoriere ich sie in zukunft komplett.
Wenn ich ein spiel spiele, das meine hardware überfordert, dann kann ich upscaling verwenden. Aber als default? Mehr als fragwürdig.
 
  • Gefällt mir
Reaktionen: DERLanky
  • Gefällt mir
Reaktionen: Parni, Winston90 und na:L
Schön. Meine 7900 XTX Referenz kann weiter ihre Dienste schieben. Egal ob Rasterizer oder RT, eine 4090 lohnt den Aufpreis nicht bei 2560x1440. (nutze eh kein RT)
 
  • Gefällt mir
Reaktionen: MiroPoch und LETNI77
Zu schade, dass die 4060 Ti 16 GB Version nicht dabei ist. Die günstigste 16GB Karte mit Cuda Cores.
Da hätten mich die AI-Benchmarks interessiert.

Gerade weil die 5000 Serie wohl auch keine großen Sprünge beim VRAM macht, wird die wohl für KI-Anwendungen interessant bleiben.
 
  • Gefällt mir
Reaktionen: Quidproquo77
die schrieb:
Und wie soll so ein Manko aufgezeigt werden wenn solche Beispiele aus dem Testfeld fliegen?
Seh ich genauso.
Wo RDNA2 rauskam wurde AMD noch belächelt das sie ihre Karten mit so viel Vram ausstatten. Nvidias Speichermanagment ist viel besser, blabla ....
Jetzt dreht sich das und bin auch der Meinung das dies ruhig angezeigt werden sollte.
 
  • Gefällt mir
Reaktionen: die
Wolfgang schrieb:
Die Ameisen waren ursprünglich auch gar nicht eingeplant. Als ich mit dem Testen der ersten Karten angefangen habe, war Empire of the Ants nicht dabei, sondern stattdessen Everspace 2.
Warum ist denn dann dieses Lego Zeug dabei?^^ Das spielt doch wirklich keiner.
Everspace kann man aus dem Index ausblenden, genauso wie Spiele mit PT, wenn man da keinen Wert drauf legt.
 
Bin immer noch kein Fan von Upsampling in Vergleichsbenchmarks. Man vergleicht halt nicht mehr wirklich die Leistung.

Und es macht halt auch irgendwie keinen Sinn, wenn man die Benchmarks anschaut. Da sind die Werte ohne RT und mit RT fast gleich, weil (ich geh zumindest davon aus, konnte dazu aber nichts finden) unterschiedliche Upsampling Stufen benutzt werden.
 
  • Gefällt mir
Reaktionen: Shadak und DERLanky
Wichipingui schrieb:
Ich hatte vor einem Monat eine 4090 ausgeliehen gehabt (3 Wochen lang), um zu schauen wie viel Unterschied wirklich macht mit meinem RTX 3070 und die Antwort ist: meh, lohnt sich nicht.
Habe Cyberpunk Phantom City gespielt und dann weiter mit der 3070, ja es ist flüssiger mit der 4090, aber nicht so dass ich die wirklich brauche.
Die 4090 ist mehr als DOPPELT so schnell wie deine 3070. Ich bin von einer 3080 auf eine 4090 umgestiegen, RIESIGER Unterschied. Kann natürlich sein das dein 5800X zu lahm für die 4090 war. Mein 5900X ist es.
 
Wolfgang schrieb:
[...] sondern stattdessen Everspace 2. Warum auch immer, AMD-Karten laufen in dem Spiel aktuell unfassbar langsam (ich meine wirklich das, also nicht nur langsamer), sodass ich nach ein paar Karten dann Everspace 2 gegen Empire of the Ants (beides mit UE 5.4) ausgetauscht habe.
Das ist aus statistischer Sicht dann leider aber nicht in Ordnung: Ausreißer dürfen nicht einfach aus einer Statistik getilgt werden. So etwas macht die ganze Statistik angreifbar und untergräbt ihre Evidenz.

Deshalb muss ich auch noch einmal darauf hinweisen, dass die Diagramme/Daten zu DA:TV und IJudgK irrig interpretiert werden könnten. Aus dem einfachen Datensatz lässt sich zwar ein Indiz aber kein Beweis hinsichtlich der VRAM-Problematik ableiten.
Sehr gut daran zu erkennen, dass im FHD-Diagramm von IJudgK alle getesteten nVidia-Karten hinter den Intel- und AMD-Karten liegen. Daher ließe es sich nicht ausschließen, dass es sich um ein Treiber-/Architektur-Problem handelt.

Ein wunderbarer Konter wäre die 4060 Ti. Diese Karte ist mit ihren beiden Varianten (8GB, 16GB) statistisch Gold wert: krasser VRAM-Unterschied, minimale Varianz. Die "Zwillinge" der GPU-Benchmarks.

Glyphus schrieb:
Tatsächlich fordere ich das hier schon seit einiger Zeit. Bei anderen Formaten wie Hardware Unboxed oder Gamers Nexus ebenfalls- wurde aber bisher nicht erhört. Vielleicht bin ich einfach wirklich der einzige, der darin einen relevanten Mehrwert sieht.
Nerds dürften dich feiern. :evillol:

Maine schrieb:
Ich denke das Problem wäre hier auch, dass man damit zu viele Leute verwirrt. Selbst Basisstatistik und deren Verständnis sind nun einmal kein Allgemeinwissen.
Vielleicht ließe sich der Wert bei Bedarf irgendwie ein-/ausblenden. Das sollte nicht viel Code erfordern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Winston90
HAse_ONE schrieb:
Bin immer noch kein Fan von Upsampling in Vergleichsbenchmarks. Man vergleicht halt nicht mehr wirklich die Leistung.

Und es macht halt auch irgendwie keinen Sinn, wenn man die Benchmarks anschaut. Da sind die Werte ohne RT und mit RT fast gleich, weil (ich geh zumindest davon aus, konnte dazu aber nichts finden) unterschiedliche Upsampling Stufen benutzt werden.
Natürlich vergleichst du noch die Leistung. Wenn du eine Grafikkarte kaufst, kaufst du bereits seit längerem mehr als nur Hardware. Du "kaufst" auch ein ganzes Software-Ökosystem, wo auch Upsampling mit dazu gehört. Entsprechend müssen die Hersteller ihr Ökosystem auf die eigene Hardware anpassen. Und wenn das einer besser kann, dann kann er da auch durch mehr Leistung profitieren. Wenn er das tut, in dem er eine schlechtere Bildqualität aufweist, habe ich damit ein Problem. Aber wenn es einer schafft, nicht nur eine bessere Bildqualität als die Konkurrenz, sondern zugleich auch noch eine bessere Performance zu haben...warum sollte man das nicht in Form von Benchmarks einfließen lassen?

Mit Ausnahme von F1 24 sind die Upsampling-Stufen bei RT/Nicht RT immer gleich. Die genauen Einstellungen findest du auf Seite 1.
floTTes schrieb:
Das ist aus statistischer Sicht dann leider aber nicht in Ordnung: Ausreißer dürfen nicht einfach aus einer Statistik getilgt werden. So etwas macht die ganze Statistik angreifbar und untergräbt ihre Evidenz.
Das Ergebnis in Everspace 2 hatte nichts mehr mit "normal schlechter Performance" zu tun, da ist schlicht und ergreifend etwas völlig kaputt. Zumal das Spiel früher auch schon mit der UE5 nicht gelaufen ist. Da sehe ich wenig Sinn, so etwas in den Parcours mit auf zu nehmen.
 
  • Gefällt mir
Reaktionen: Geckoo, LDNV, floTTes und eine weitere Person
Wolfgang schrieb:
Das Ergebnis in Everspace 2 hatte nichts mehr mit "normal schlechter Performance" zu tun, da ist schlicht und ergreifend etwas völlig kaputt. [...]
Also so ultra völlig kaputt? Hm ... na das weiß ich doch nicht! :evillol:
Vor "Ewigkeiten" habe ich paar Ergebnisse zu ES2 gesehen. Da haben die AMD-Karten zwar nicht wie gewohnt abgeliefert, aber es ging noch. Komisch, schade ...

Ick will dir hier keenen pinnen, och wenn du ditt an Kopp bekommst! Der Statistik-Monk in mir kann nicht anders. :freak:

Vollen Respekt für Aufwand und dass ihr immer dran bleibt!
 
  • Gefällt mir
Reaktionen: Jan
DevPandi schrieb:
Da kurz als Anmerkung: wir haben erst den Prozentualen-Graphen auf Wunsch der Community abgeschafft und durch die "fps" ersetzt.
Kein Problem - die Standardabweichung kann ja auch als FPS angegeben werden. Für die Berechnung ist es halt einfacher mit den normalisieren werten zu rechnen und nicht mit den rohen FPS.

floTTes schrieb:
Das ist aus statistischer Sicht dann leider aber nicht in Ordnung: Ausreißer dürfen nicht einfach aus einer Statistik getilgt werden. So etwas macht die ganze Statistik angreifbar und untergräbt ihre Evidenz.
Da steckt ein wenig Philosophie drin. Zum einen gibt es Tests für Ausreißer, wenn man rein analytisch an das Problem ran geht. Zum anderen kann ein Datenpunkt durchaus entfernt werden, wenn es BERECHTIGTE Zweifel an der korrekten Erhebung gibt. Das ist hier durchaus schwammig. Wenn es berechtigte Gründe gibt, dass die Leistung nicht korrekt ist (zum Beispiel, sehr neues Spiel ohne korrekten Treiber, oder neuer Patch der die Leistung drastisch einbrechen lässt im Vergleich zu vorher). Das zu beurteilen ist halt sehr schwer wenn es nicht verblindet stattfindet. Deine Stichproben sollten ja repräsentativ sein. Wenn da nun ein einziges Sample eine komplett anderes Bild zeigt ist das ja nicht gegeben.

floTTes schrieb:
Aus dem einfachen Datensatz lässt sich zwar ein Indiz aber kein Beweis hinsichtlich der VRAM-Problematik ableiten.
Ich bin ganz bei dir, aber glaube dass da wissenschaftliches Denken auf Journalismus prallt. Letzen Endes liegt die finale Interpretation beim Konsumenten, der sich aus verschiedenen Quellen ein Bild machen muss in wie fern er durch die Problematik betroffen ist.
Der Test mit der 16Gb Variante würde in diesem Fall weitere Evidenzen liefern. Aber ob das VRAM Problem nicht generell zur Kaufentscheidung beiträgt, liegt am Ende beim Leser.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und floTTes
Shadak schrieb:
also ich lese die diagramme bei den test schon länger nur mit halben auge, wegen dem upscaling (damit sind die balken wertlos zum betrachten der leistung der grafikkarten
DLSS zählt auch zur Leistung der Grafikkarten dazu, dafür haben sie ja sogar extra Hardwareeinheiten verbaut.

Und wie @Wolfgang bereits geschrieben hat, wenn ich in 4K mit dem Wechsel von TAA zu DLSS Quality nicht nur mehr Performance sondern auch einfach das bessere Bild bekomme, dann ist das eine Leistung der Grafikkarte, die beachtet werden sollte
Ergänzung ()

Ghostfacekalle schrieb:
Seh ich genauso.
Wo RDNA2 rauskam wurde AMD noch belächelt das sie ihre Karten mit so viel Vram ausstatten. Nvidias Speichermanagment ist viel besser, blabla ....
Jetzt dreht sich das und bin auch der Meinung das dies ruhig angezeigt werden sollte.
Test der 6800XT 2020
1734521180985.png




Aktueller Test, 4 Jahre später

1734521203263.png

1734521266496.png



Was dreht sich hier? Die 3080 mit ihren 10GB ist in WQHD und auch UWQHD nach wie vor vor der 6800XT, sogar minimal mehr als noch vor 4 Jahren.

Bei RT hat sie mittlerweile etwas nachgelassen, aber das haben die meisten AMD Nutzer hier nach eigenen Angaben doch eh immer aus.

Und wenn wir an den Punkt kommen, wo es aufgrund der 10GB gar nicht mehr geht, auch nicht mit verringern der Textursettings, ist die Karte eh generell zu langsam
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes und Quidproquo77
floTTes schrieb:
Ausreißer dürfen nicht einfach aus einer Statistik getilgt werden. So etwas macht die ganze Statistik angreifbar und untergräbt ihre Evidenz.
Ja und Nein, es kommt an der Stelle darauf an.

In der Statistik ist es je nach dem, was du ermitteln willst, durchaus auch üblich, dass du die oberen und unteren Datenpunkte als Ausreißer entfernst für die Statistik, besonders wenn es eben ein massiv negativen Ausreißer gibt.

In dem Fall wie @Wolfgang ihn hier beschreibt, sortiert man so einen Wert in der statistchen Betrachung her aus, vor allem bei der "geringen" Datenmenge von 21 Spielen.
Glyphus schrieb:
Zum anderen kann ein Datenpunkt durchaus entfernt werden, wenn es BERECHTIGTE Zweifel an der korrekten Erhebung gibt.
Nicht nur an der korrekten Erhebung, sondern auch an der allgemeinen Aussagekraft. Gerade bei kleinen "Stichproben" - wie hier mit 21 Spielen - muss man sich bei einem Spiel, dass extrem in die eine oder andere Richtung schlägt, auch die Frage stellen, ob es für die finale Betrachtung relevant ist, weil man ansonsten eine ziemlich starke Abweichung vom Mittelwert bekommt.

War auch ein Grund, warum wir teilweise in den Daten im Studium je nach "Streeung" sogar bewusst den sowohl besten als auch schlechtsten Wert in einer zweiten Betrachtung ausgeschlossen haben.
 
Wolfgang schrieb:
Mit Ausnahme von F1 24 sind die Upsampling-Stufen bei RT/Nicht RT immer gleich. Die genauen Einstellungen findest du auf Seite 1.
Ok, hab gerade mal die ganzen Einzelspiele angeschaut. Da sind ja wirklich kaum noch Titel mit gesonderten RT Settings. Hatte eigentlich gedacht, dass da noch ein paar mehr sind. Weil im Gesamtrating verliert Beispielsweise eine RTX4080 Super in 1440p, sowie in 4K nur 0,8 FPS mit RT. Aber das sind dann wohl so viele Spiele ohne extra RT Settings, dass die mit extra RT dann kaum ins Gewicht fallen.
 
@Taxxor
Es gibt mittlerweile ja die Titel wo es nicht mehr reicht mit 8GB Vram. Oder man Kompromisse eingehen muss.
 
Wenn der Benchmark Parcour so auf NICHT-RT geändert wurde, dann hab ich die Vermutung dass die neuen AMD Karten ja wirklich fette RT Monster werden, bzw Nvidia hier nicht wirklich mehr zulegen werden^^
 
@DevPandi, @Wolfgang,
mir ist vollkommen bewusst, dass hier Unmengen an Arbeit reingesteckt wird und dass man irgendwo auch die Grenze ziehen muss! Ich bin auch mit fast allen Entscheidungen der Redaktion absolut einverstanden:
  • 720p bei CPU-Tests,
  • "Aussortieren" der alten Karten, gerade wenn man Ergebnisse gut extrapolieren kann,
  • viele UE-Games als Repräsentanten für die aktuelle Spiele-Situation,
  • Kartoffel-Games raus, kaputte Games raus (ES2-Daten sind/waren mir unbekannt),
  • GPU-Last maximieren,
  • und vieles, vieles mehr ... eigentlich alles!
Irgendwie habe ich allerdings "Bauchschmerzen" wenn man diese Ausreißer - zu Recht - aussortiert aber jene - mglw. zu Unrecht - nicht.
Die 8GB/10GB-Ausreißer werden - nicht zu Unrecht - forciert. Irgendwie tut mir das weh.
Ich habe mich die letzten Tage doch recht intensiv mit dem Thema VRAM-Mangel bei nVidia beschäftigt ... und muss sagen: "Joa, da ist doch schon was dran."
Ich kann das gar nicht richtig in Worte fassen. Ich muss da nochmal in Ruhe drüber nachdenken ... *

Mir ist auch klar, dass ich hier auf der Schiene des stänkernden Querulanten fahre. Ich bitte daran zu denken, dass ich das nur tue, weil ich tatsächlich glaube, dass man das "besser" lösen könnte - im Sinne der CB-Redaktion. Auch wenn ich zu weilen mal schnippisch rüberkomme. :freak:

*Gerade keine wirkliche Kapazität. Ich habe bis morgen Abend noch 'ne Dead Line und mache alles außer das, was getan werden muss. Ich habe den Router reseted und rekonfiguriert... und hätte beinahe noch mit putzen angefangen! :freak:
 
Zurück
Oben