Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

LatinoRamon schrieb:
In Full HD oder 1440p, aber Performancerating 3.840 × 2.160 nicht. Ich spiele nur in 2160. Außerdem ist nur in RT völlig ladde.
Den Text offensichtlich nicht gelesen. Ich stelle lieber FSR aus und drehe die "Qualität "etwas runter, als dass ich mir den Matsch in hochauflösend antue.
 
@Kenjiii
Naja gerade wegen dem Standard Flair konnte ich mich bisher nicht so richtig aufraffen Cyberpunk zu spielen 🤣
Sieht mir viel zu kunterbunt und realitätsfremd aus. Wenn das die "Zukunft" sein soll, dann bin ich froh vorher das Zeitliche zu segnen.
 
blackiwid schrieb:
Also die 7800xt ist ca. 10% billiger und ca. 10% schneller im Raster...
In den Ratings sind es aber nur 3 bis 6%. Wie kommt man da auf 10?
Raytracing 21 bis 25%. Natürlich muss die 7800XT trotz 16GB RAM günstiger sein, auch mit dem Verbrauch und FSR Nachteil. Vor allem DLSS wiegt schwer. Das kostet BQ oder Leistung .
Auf der Radeon VII hatte ich oft FSR 1 Ultra Qualität an. Bei FSR2 ist's ähnlich um mit DLSS Balanced gleichzuziehen. Das muss man beachten.
blackiwid schrieb:
wer nicht extrem auf Raytracing abfährt und nicht nen Fertigpc kauft ohne sich aus zu kennen, sollte die Wahl klar sein. (für Gaming)
Schon mit einer leichten RT Gewichtung sind die Karten auf Augenhöhe.
Alleine DLSS gleicht den Rückstand bei Raster mehr als aus.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
In den Ratings sind es aber nur 3 bis 6%. Wie kommt man da auf 10?
Zumindest bei den Perzentil-FPS sinds in 1080p und 1440p 8%
 
Quidproquo77 schrieb:
Die gefallen mir nicht, weil sie immer auf ein AMD. vs. Nvidia Bullshit-Bingo hinauslaufen und es nie um die Tech an sich geht. Dir geht es darum wer den längsten in Disziplin XY hat. Und wenn das bei RT Nvidia ist, dann agitierst du dagegen an, vermischst Sachverhalte und stellst Zusammenhänge völlig falsch dar.

Manchmal kommt es mir so vor, als wenn selbst religiöse Fanatiker (oder Grünenwähler) weniger "fanatisch" sind. ;-)
Wobei das nicht auf IT-Themen beschränkt ist, sondern in jeder Diskussion zu Themen passiert, bei denen normale Menschen sich an den Kopf fassen würden.

Ich habe letztens unter einem Side-by-Side Video zu DLSS/FSR vorgeschlagen, bei einem Blindtest einfach beide Seiten mit FSR zu zeigen bzw. bei einem gekennzeichneten Test DLSS und FSR zu vertauschen. Das würde den Irsinn der ganzen Thematik aufzeigen, da selbst dann viele immer noch meinen würden, dass DLSS haushoch überlegen wäre. Ich bezweifle sehr stark, dass viele einen Unterschied erkennen würde.
Vermutlich wird wie bei Adaptive Sync irgendwann einmal herauskommen, dass beides technisch die ganze Zeit identisch war.

Imho sollte bei Tests auch bei Nvidia FSR verwendet werden, da nur dieses von allen GPU-Herstellern unterstützt wird. Für DLSS kann man ja einen getrennten Artikel, der die "Unterschiede" aufzeigt, herausbringen. Alles andere würde nur dazu führen, dass der Wettbewerb verzerrt würde und Grafikkarten immer teurer werden. Irgendwann kosten dann die Topmodelle über 2000€.

Zum Thema RT she ich das Problem ähnlich wie damals mit Hairworks bei Witcher 3 als eindeutige Wettbewerbsverzerrung, wenn man Features bewusst so konfiguriert, dass die Konkurrenz nicht damit klar kommt, ohne dass es besser aussieht. Da finde ich den Ansatz von Avatar besser, RT einfach für alle Karten, die es darstellen können, gleich zu integrieren.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Wolfgang schrieb:
Aber dann eben nur mit FG für alle, FG für A, aber nicht für B wird es hier mit Ausnahme bei Pathtracing-Benchmarks (weil es da oft anders einfach nicht geht) und in Spezial-Tests nicht geben, einfach weil FPS mit FG nicht gleich viel wert ist wie FPS ohne FG.
Wenn Pathtracing-Titel wie Alan Wake 2 nur mit Hilfe von FG die 60 FPS-Marke erreichen, dann sollte immer explizit auf diesen Umstand hingewiesen werden. Ich persönlich spiele zwar gern auf meiner PS5 im 30 FPS Qualitätsmodus, aber ich denke der Standard beim PC-Gaming sollten heutzutage 60 FPS sein. Zumal ja auch die Hersteller nur mit hohen Bildraten werben. Das heißt im Falle von Alan Wake 2 (wie von dir gesagt), dass die mit Hilfe von FG erreichten Bildraten bei Pathtracing im Grunde eine Mogelpackung sind. Weil eben keine 60 FPS mit DLSS allein erreicht werden.
 
graysson schrieb:

graysson schrieb:
Ich bezweifle sehr stark, dass viele einen Unterschied erkennen würde.

Gestern wieder bei SimRail gesehen. Nach langer Zeit mal wieder gespielt und gleich die Grafikoptionen geprüft und eingestellt. In dem Titel sind FSR und DLSS verfügbar, sowie eine TAA Kantenglättung wenn man KI Upsamling ausschaltet.

Das Hauptproblem bei dem Spiel ist das flimmern der Texturen und die Kantenglättung.

SMAA hilft Null gegen Flimmern.
TAA entfernt das flimmern, verwäscht aber alle Texturen.
FSR ist totale Grütze.
DLSS liefert brauchbare Ergebnisse, d.h kein Flimmern und schärfer als DLSS.

(Ich liefer gerne auch später nochmal Bilder, falls hier Zweifel an meiner Aussage bestehen)


Was ist damit sagen will, FSR hat 2 große Nachteile:
  • Entfernt nicht immer das Flimmern von Texturen und Kanten
  • Kann nicht zur Kantenglättung genutzt werden (wie z.B DLAA)
Ergänzung ()

Quidproquo77 schrieb:
Alleine DLSS gleicht den Rückstand bei Raster mehr als aus.
Das kann ich so nur voll unterstrichen.

Die Performance Vorteile von DLSS (ohne Framegen) sind teils massiv.
Alle aktuellen Spiele die bei mir installiert sind, haben irgendeine Form der KI Upsamplings.
DLSS funktioniert einfach wunderbar und man spart sich aufwändige statische Kantenglättung und TAA.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Simanova schrieb:
Kann nicht zur Kantenglättung genutzt werden (wie z.B DLAA)
Genau das ist „FSR Native“.
Und generell möglich war es schon immer, FSR mit 100% Skalierung zu nutzen, hat nur niemand eingebaut
 
graysson schrieb:
.Ich bezweifle sehr stark, dass viele einen Unterschied erkennen würde.
Um den zu sehen ist nicht viel nötig. Das Geflimmer und die Instabilität des Bewegtbilds erkennst du schnell.
Gibt viele Tests, auch auf der 'Youtube Universität" die das eindeutig im Direktvergleich zeigen.
graysson schrieb:
wenn man Features bewusst so konfiguriert, dass die Konkurrenz nicht damit klar kommt,
Oder viel mehr RT derart kastriert, dass die User keine bessere Optik genießen können und sich mit verwaschenen, niedrig aufgelösten Reflektionen und SSRs herumschlagen müssen.Ganz im Gegensatz zu Witcher 3, wo der Tesselationsfaktor sinnfrei auf x64 gesetzt wurde, wo auch x32 oder gar x16 gereicht hätten um eine vergleichbare Optik zu erzielen.

Das sind also völlig verschiedene Dinge.
graysson schrieb:
Da finde ich den Ansatz von Avatar besser, RT einfach für alle Karten, die es darstellen können, gleich zu integrieren.
Der Ansatz bei Avatar ist genauso bescheiden wie der von the Witcher.
 
Vielen Dank für die Aktualisierung der Testdurchläufe; sehr spannend zu sehen wie sich aktuelle SPiele mit den letzten Generationen GKs verhalten.
Und persönlich muss ich sagen: Ich habe vor drei Jahren eine 6800XT Nitro+ gekauft. Und wenn ich sehe wie sich diese gegen die aktuellen 7800XT (auch wenn es ein "Downgrade" der Nomenklatur ist) und 4070 im Rasterizing schlägt, dann habe ich mich damals richtig entschieden. RT und Upscaling sind mir (noch) relativ egal, sodass es mich (noch) nicht schmerzt, dass NVIDIA hier schlicht besser performt. Damit kann ich mindestens die RDNA3/Lovelace Refresh Generation überspringen.

Dennoch muss ich leider zugeben, dass ich anhand der aktuellen und kolportierten zukünftigen Entwicklungen wieder ins grüne Lager wechseln werde. Einen Aufpreis trotz gleicher Rasterleistung nehme ich in Kauf. Und warum?
NVIDIA ist in meinen Augen mehr Innovationstreiber im Customer-/Gaming-Segment. AMD läuft hier immer einem technischen Rückstand hinterher. Der Ausblick, sich aus dem High-End-Bereich zurückzuziehen, empfinde ich als fatal im Hinblick auf die Preisentwicklung. Team Grün kann dann hier preislich machen was sie wollen.

Aber: Ich bin auch gespannt auf den Underdog Intel und die Battelmage Generation mit ihrem avisierten bis zu 100% schneller; Konkurrenz belebt das Geschäft und den Preis.

Letztendlich bin ich sehr gespannt wie es nach Veröffentlichung von Battlemage/RDNA4/Blackwell ausschauen wird und wie sich Preise und technischer Fortschritt entwickelt. Vielleicht wird es dann doch wieder eine rote Karte oder im unwahrscheinlichsten Fall eine blaue.
 
Quidproquo77 schrieb:
Um den zu sehen ist nicht viel nötig. Das Geflimmer und die Instabilität des Bewegtbilds erkennst du schnell.
Gibt viele Tests, auch auf der 'Youtube Universität" die das eindeutig im Direktvergleich zeigen.

Und da liegt der Knackpunkt...im direkten Vergleich. Selbst wenn man einen Unterschied erkennen könnte, ist das für die (vermutlich überwältigende) Mehrheit nicht relevant.

Und mit Mehrheit meine ich normale Leute wie z.B. mein Cousin für den moderne Spiele auf seinem 2600/5700XT@1440p gut laufen, wenn er nach der Arbeit seinen Rechner (auf der Flucht vor seiner Frau) anmacht, um jede freie Minute zu nutzen, bevor sie eine Beschäftigung für ihn findet. Ich kann mich noch an den WoW Raid erinnern, wo sie reinkam und sagte: "Speicher ab, mach den Rechner aus und komm jetzt Fernseh gucken. ;-)
Die meisten verschwenden ihre Lebenszeit nicht damit, auf wissenschaftlichem Niveau die Grafikkartenhersteller zu vergleichen. Für ihn war der Sprung von 1080p auf 1440p relevant. Genau wie eine Verdopplung der Leistung durch eine aktuellere GPU relevant wäre.

Der bereits erwähnte Cousin sagt auch, dass er bei der nächsten GPU "wieder" Nvidia nimmt, da diese gefühlt besser läuft. Vor der 5700XT hatte er eine 480... damit man mal die "Aktualität" seiner Erfahrung mit Nvidia einordnen kann. Du kannst dir bestimmt vorstellen, wie er darauf reagiert, wenn ich ihn auf die "Lücken" in seiner Argumentation hinweise. Und genau so kommt mir manchmal die Diskussion zwischen Nvidia und AMD vor.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Simanova schrieb:
Gestern wieder bei SimRail gesehen. Nach langer Zeit mal wieder gespielt und gleich die Grafikoptionen geprüft und eingestellt. In dem Titel sind FSR und DLSS verfügbar, sowie eine TAA Kantenglättung wenn man KI Upsamling ausschaltet.
Was @graysson aber gemeint hat ist ein Test, bei dem die verwendete Upscaling-Technologie nicht bekannt ist. Die Probanten sollen einfach nur das Bild beurteilen, was sie vor sich sehen.

Bei deinem Beispiel weißt du vorher schon, ob es DLSS oder FSR ist. Sicherlich bist du geübt darin auf Bilddetails zu achten. Doch ein Mainstream-Gamer tut das in der Regel nicht. Es macht daher psychologisch einen großen Unterschied, ob man die gerade eben verwendete Upscaling-Technologie weiß oder es geheim gehalten wird.

Lange Rede, kurzer Sinn:
In der Praxis ist die bessere Bildqualität von DLSS gegenüber FSR für den Mainstream-Gamer nicht so auffällig, wie du es persönlich siehst. Weil du ein Enthusiast bist und die Allgemeinheit sich deutlich mehr mit dem Spielinhalt als mit der Grafik beschäftigt.

In Wahrheit spielt die bessere Bildqualität von DLSS für die Allgemeinheit also keine entscheidende Rolle. Es ist maximal ein "Nice to have", aber kein wichtiges Kaufargument für eine Geforce. Aber heißblütige Nvidia-Fans sehen das oftmals ganz anders und verkaufen DLSS als absolutes Killerfeature von Nvidia. Da geht dann die persönliche Euphorie etwas mit ihnen durch und sie schießen über das Ziel hinaus. Zumal auch DLSS nicht frei von Fehlern oder Nachteilen ist. Und auch FSR kann optische Vorteile gegenüber DLSS haben.
 
Zuletzt bearbeitet:
D0m1n4t0r schrieb:
Bei der 4060ti, habt ihr da die 8GB oder die 16GB Version verwendet ?
Sollte fast nie einen unterschied machen, da der Flaschenhals die Speicherbandbreite primaer ist und die ist bei 16gb ja auch auf 128bit beschnitten und auf neuesten patchstaenden werden 95-99% der games nicht mehr als 8gb rauchen zumindest bei fullhd und bei neueren grafisch anspruchsvolleren games ist die eh nicht zu mehr sinnvoll.

Aber um zu beantworten wenn nicht explizit 16gb dran steht kann man von 8gb aus gehen.
 
blackiwid schrieb:
Sollte fast nie einen unterschied machen, da der Flaschenhals die Speicherbandbreite primaer ist und die ist bei 16gb ja auch auf 128bit beschnitten und auf neuesten patchstaenden werden 95-99% der games nicht mehr als 8gb rauchen
Gerade mal bei PCGH geschaut, selbst in 4K ist die 16GB Variante nur 2% vor der 8GB Variante.

Im WQHD RT Index sind es auch nur 3%, erst bei UWQHD werden es 10% und bei 4K sind es dann 14%.

Also sofern man nicht zur wohl kleinen Gruppe gehört, die sich eine 4060Ti für RT in UWQHD+ holen, ist es egal ob 8 oder 16GB
 
graysson schrieb:
Und da liegt der Knackpunkt...im direkten Vergleich.
Das siehst du auch ohne direkten Vergleich, wenn du es besser gewohnt bist.
Ich war jahrelang FSR gewohnt, was auch gut ist und besser als die Auflösung herunterzusetzen.
Nach dem Wechsel auf DLSS hab ich es zum ersten mal in Alan Wake gesehen. Du möchtest kein FSR, wenn du DLSS hast. Bildschärfe, Stabilität und Flimmern waren besonders wenn es hell war gut schlechter. Wie der Wechsel von 1080p auf 720p.
graysson schrieb:
Selbst wenn man einen Unterschied erkennen könnte, ist das für die (vermutlich überwältigende) Mehrheit nicht relevant.
Und genau deshalb weil der Durchschnittsuser nicht so genau hinschaut, kann er bei DLSS viel tiefer runter gehen, ohne dass das Bild dann auffällig nachlässt, aber mit viel höheren Bildern pro Sekunde zocken.
graysson schrieb:
Für ihn war der Sprung von 1080p auf 1440p relevant.
Eben, diesen Sprung hast du bei DLSS, das versuche ich dir ja nahe zu bringen.
graysson schrieb:
Der bereits erwähnte Cousin sagt auch, dass er bei der nächsten GPU "wieder" Nvidia nimmt, da diese gefühlt besser läuft. Vor der 5700XT hatte er eine 480... damit man mal die "Aktualität" seiner Erfahrung mit Nvidia einordnen kann.
Ich habe mit Radeons die besseren Erfahrungen gemacht. Das Nvidia Treibermenü ist optisch aus Windows XP Zeiten, die Zusatzsoftware Afterburner, Nvidia Inspector und Expirience (Achtung verm. Schreibfehler) nerven.
Ich hätte alle Auswahlmöglichkeiten gerne übersichtlich im Treiber.

Das hielt mich aber nicht davon ab eine Nvidia zu kaufen. Der Afterburner läuft jetzt und damit habe ich mich halbwegs angefreundet.
graysson schrieb:
Und genau so kommt mir manchmal die Diskussion zwischen Nvidia und AMD vor.
Was heißt zwischen AMD und Nvidia. Ich blende die Unternehmen aus. Mir geht es um die Technik.
Solange AMD das GAP bei DLSS und RT nicht schließt, wird die nächste Karte auch wieder von Nvidia sein.
Die "Krüppel 12GB Karten" um es mal übertrieben zu sagen, waren aber nach 16GB auf der Radeon VII auch kein passendes Upgrade und für mich keine Option.
 
graysson schrieb:
Und da liegt der Knackpunkt...im direkten Vergleich. Selbst wenn man einen Unterschied erkennen könnte, ist das für die (vermutlich überwältigende) Mehrheit nicht relevant.
Genau meine Rede. Nur Grafikenthusiasten und fanatische Nvidia-Fans machen DLSS zu einem großen Kaufargument. Alle anderen interessieren sich wenig bis gar nicht über die optischen Unterschiede zwischen DLSS und FSR. Ich habe etwa überhaupt kein Problem damit auch heute noch PS1-Spiele auf einem Röhrenfernseher zu zocken. Mich interessiert bei einem Spiel der allgemeine Spielspaß und weniger die Grafik.
 
  • Gefällt mir
Reaktionen: graysson
TigerherzLXXXVI schrieb:
Genau meine Rede. Nur Grafikenthusiasten und fanatische Nvidia-Fans machen DLSS zu einem großen Kaufargument.
Dass du das so siehst ist natürlich klar, es ist aber sachlich falsch und hat mit Fans oder Fanatismus gar nichts zu tun. Würdest du auf dem DLSS Thema so herumreiten wie auf deinen angeblichen schlechten Texturen in Nvidia unterstützen Spielen, wäre das ein großes Thema für dich. Mit Nvidia Karte könntest du es selbst prüfen, aber ich gebe dir gerne Hilfestellung.
Bei den Videos fehlen noch genauere Einstellungen zu den typischen DLSS Vorteilen von mehr Details in Entfernung, das ist erst einmal nur das was man unmittelbar sieht. Und das fällt auf, besonders wenn man keinen 4K Schirm hat und nicht alles mit viel Geld und Brute Force erschlägt.
WQHD Quality.
Man achte zudem links auf den Zaun. Und die fehlenden Details am Haus Straßenlaterne, die Schatten, das körnige Pixelflimmern am Laster.

Nvidias DLSS produziert auch Fehler, aber in Summe ist das deutlich weniger.
Aktivierst du FSR, fühlt dich das so an, wie wenn aktiv die Auflösung reduziert wird, logisch FSR hat weniger Samples, kann das Bild schlechter rekonstruieren. DLSS kann das auch in Balanced oder Performance noch, wo FSR zusammenbricht. Das bedeutet deutlich mehr Leistung oder Bildqualität.
Natürlich wird dich das nun auch nicht überzeugen und du wirst der Meinung bleiben, das bemerkt niemand, dann solltest du aber bei deinem Texturfetisch die gleichen Maßstäbe anlegen. Das heißt Medium statt ultra, merkt eh keiner.:rolleyes:
Die WQHD Quality Vergleiche sind zudem pro FSR. Man könnte auch Balanced nehmen, dann ist es noch deutlicher.
TigerherzLXXXVI schrieb:
Alle anderen interessieren sich wenig bis gar nicht über die optischen Unterschiede zwischen DLSS und FSR.
Ein Bild ist ein Gesamtkonstrukt. Texturen, Schärfe, Stabilität, Verschattung, Beleuchtung V-ram. Egal was. Alles ist von Interesse, nicht nur das, worin AMD vermeintlich gut ist.
TigerherzLXXXVI schrieb:
Mich interessiert bei einem Spiel der allgemeine Spielspaß und weniger die Grafik.
Außer bei Speicher und Texturen, da bist du besonders interessiert und bei RT oder Upscaling Techniken besonders desinteressiert. Tiger, das sind 30% mehr Frames für lau. Und das soll niemanden interessieren?
Du verstrickst dich immer mehr in Widersprüche.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
TigerherzLXXXVI schrieb:
Der gemeine PC-Gamer zieht sowieso nur Nvidia in Betracht. Da gibt es keine auf Vernunft basierende Abwägung mit eventuellen Alternativen. Von daher wird eine RTX 4070 Ti Super (furchtbarer Name) auch dann wie warme Semmeln weggehen, wenn die RX 7900 XT deutlich deutlich günstiger wäre. Die Leute sind dumm.

TigerherzLXXXVI schrieb:
Dennoch versuche ich so objektiv wie möglich auf die Hardware von AMD, Nvidia und Intel zu schauen. Es geht mir stets darum SACHLICHE Argumente für oder gegen ein beliebiges Technikprodukt vorzubringen. Also im Geiste eine klassische Liste mit PRO und CONTRA zu erstellen. Genau diese korrekte Einstellung fehlt aber einigen Leuten hier. Daher ist eine vernünftige Diskussion mit ihnen ausgeschlossen.
Ich bewundere deine Objektivität, sachlichen Argumente und deine korrekte Einstellung:D
 
Zurück
Oben