Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

artishok schrieb:
Spannend fände ich auch die Darstellung der VR Leistungen. Scheint entweder eine Niesche zu sein, oder schlecht durchführbar?
Stimme hier zu. So ein paar VR Benchmarks wären klasse!
 
  • Gefällt mir
Reaktionen: jo0, Mcr-King und Mracpad
Schöner Bericht mit extrem vielen Daten.

Aus meiner Sicht bringt sich AMD mit seiner Preispolitik ins Abseits.
Aktuell gibt es keine empfehlenswerte Karte von denen und trotzdem verlangen sie für weniger Raytracing Leistung, Idle Bugs und schlechteres Upscaling das gleiche wie Nvidia.

Aktuell kann man aber eh kaum eine Grafikkarte empfehlen.
 
  • Gefällt mir
Reaktionen: MoinWoll
BloodGod schrieb:
Ist dann auch viel besser vergleichbar mit anderen Testseiten, so kann man euch nicht als Referenz empfehlen, da viel zu individuell/willkürlich gestaltet und somit nur sehr bedingt aussagefähig…
Testseiten direkt miteinander vergleichen geht ohnehin nicht. Andere Testszene, anderes Ergebnis. Darum helfen auch leider nur verhältnismäßig viele Benchmarks, um einen Schnitt zu bilden.
Shaav schrieb:
Wenn ihr Lust habt mit mir an einer besseren Version zu arbeiten, bei der jeder Nutzer seine eigenen Wert angeben kann und so individuell das beste P/L-Verhältnis berechnet wird, lasst es mich wissen. Ich habe Bock auf das Thema.
Ganz schön viel Aufwand und interessant!
Ist dann aber schon die Frage, wie du das mit der Leistungsaufnahme hineinrechnest. Das kann ja ganz schön wild werden. Also wie viele Stunden Idle am Tag, wie viele Stunden Last etc. Das macht das ganz schön dynamisch, schwer das auf einen sinnvollen Punkt zu bekommen.

Convert schrieb:
Das ist doch dann irgendwie getürkt. Für mich heißt "Abstürzen" entspricht Ergebnis 0 (Null), da 0 FPS geliefert wurden. Anderfalls wäre es für einen Hersteller ja besser, wenn seine Grafikkarte abstürzt, anstatt beispielsweise unterdurchschnittliche 20 FPS in einem Spiel zu liefern, währen die anderen Karten bei 100 FPS sind. Wo ist da die Motivation für den Hersteller die Treiber gegen das Abstürzen zu optimieren?
Einfach den richtigen Wert, also "0" eintragen, geht technisch schon nicht, da dann aufgrund der mathematischen Methode das Rating nicht berechnet werden kann. Irgendeinen Fake-Wert muss ich also zwangsweise eintragen, sonst steht die Grafikkarte im Rating bei "0".

Wenn ich für die Arc A770 in Returnal WQHD nun 1 eintragen würde, würde der Rückstand zur RX 6700 XT im Rating nicht mehr bei 20 Prozent zur RX 6700 XT liegen, sondern bei 36 Prozent. Wie soll so ein riesen Unterschied sinnvoll sein? Das wäre halt ein Ergebnis, das massiv von einem einzigen Benchmark beeinflusst wäre.
Paradox.13te schrieb:
@Wolfgang


Es gibt genug Leute die nicht den ganzen Text lesen bzw. einfach gar nicht Wissen welche Einstellung hier vorliegen, sondern sich nur die Balken anschauen.
Somit wird eine Tatsache suggeriert die gar nicht stimmt. Leser die sich sich nicht mit der Materie beschäftigen, werden damit wohl kaum objektiv beraten. Es ist einfach keine Argumentation auf das GeForce-Lager und schnellste Modelle hinzuweisen. Das ist einfach eine faule Ausrede, nicht mehr und nicht weniger.
Die Leute wollen Wissen was die Karte kann und ob diese den Anforderungen gerecht wird.
Suggeriert wird da ja gar nichts. Wer nicht immer alles auf max dreht, erhält genau die Werte, die wir gemessen habe. Und wie bereits gesagt, auch mit einer schnellen Nvidia-Grafikkarte kann man nicht mal eben alles auf Max drehen. Das läuft dann auch nicht flüssig, demnach wären alles Max Benchmarks eben auch "suggerierte Tatsachen".

Wenn ichs ganz genau nehmen will, sind native Ultra-HD-Benchmarks in modernen Spielen ohnehin ziemlich fake. Ich persönlich spiele so zum Beispiel auf meinem UHD-Monitor nicht mehr, wenn es auch anders geht. Ich spiele lieber in UHD mit DLSS oder FSR 2 auf Quality. Das sieht gar nicht so selten gar besser als Natives UHD aus und nur selten schlechter (meistens gibt es ein paar Vor- und ein paar Nachteile). Und ich glaube, die meisten CB-Leser tun das mittlerweile auch. Native Auflösungen werden mittelfristig aussterben und UHD wird den Anfang machen.

Würde ich das jetzt schon im CB-Parcours umsetzen, würden hier glaube ich einige explodieren. Aber das ist etwas, was auch hier mittelfristig passieren wird ;)
Fallout667 schrieb:
In RT sind die AMD Karten dank der leichten RT Last mal eben teilweise 40% schneller als im alten Test. Die RTX 4080 hatte vorher knapp 220% der RT Leistung einer 6800 XT, jetzt sind es nur noch 180%.
Der Test ist doch so total irreführend. Wie soll man den denn zur Beratung nehmen?
Deine Zahlen sind halt völlig übertrieben bestimmungsweise sind so einfach falsch.
Im alten Parcours verlor die RX 7900 XTX in UHD auf die RTX 4080 im Vergleich zum Raster-Rating beim Raytracing-Rating 21 Prozentpunkte. Im neuen Parcours sind es 11 Prozentpunkte. Der Unterschied zwischen neuem und altem Testparcours liegt also bei 10 Prozentpunkten. Klar, ist das ein Unterschied. Aber wie schon geschrieben, die 21 Prozentpunkte stimmen halt auch nur, wenn ich RT-Settings fahre, die oft auch auf Nvidia-Grafikkarten nur noch schlecht laufen. Realistisch ist das eben auch nicht. Dann dreht man auch als Nvidia-Kunde die Settings zurück und schon sind die 21 Prozentpunkte falsch.
Snakeeater schrieb:
Holprige Formulierung, erst der nächste Absatz bringt etwas Licht ins Dunkel. Mglw. liegts aber auch an mir.


Ich finde es unglaublich schwer diese Grafik zu deuten. Ist eine 7900XT nun besser als eine XTX oder nicht?
Nunja, was über der Linie ist, bietet mehr FPS pro Euro, was unter der Linie ist weniger.
C4rp3di3m schrieb:
Also das man bei 144Hz Desktop so viel Verbrauch hätte kann ich nicht bestätigen CB

mfg
Das hängt stark von den Monitor-Timings ab. Anscheinend hast du dann großes Glück gehabt. Ich persönlich habe aber noch nie einen Monitor gehabt, bei den RDNA 3 nicht so reagiert wie im Test.
 
  • Gefällt mir
Reaktionen: Redundanz, C4rp3di3m, iamcriso und 6 andere
Blackfirehawk schrieb:
Vergleicht man nun also bei etwa gleicher Optik/Bildqualität hat man mit der Nvidia Lösung merklich mehr FPS

Oder man vergleicht bei gleicher FPS.. dann hat AMD die bedeutend schlechtere Bildqualität
Ich teste sowas gerne mal aus, das würde ich so nicht pauschal unterschreiben, es gibt auch ein paar Spiele die sehen mit FSR2 etwas besser aus wie mit DLSS. Dying Light 2 ist so ein Beispiel, dass mit den umherfliegenden Blättern in dem Spiel hat NV nie in den Griff bekommen (heftiges Smearing), FSR2 ist dagegen in diesem Spiel sehr gut.

Oft ist die temporale Stabilität bei DLSS aber besser, das merke ich aber nur bei relativ kleinen Auflösungen, bei 4k würde ich mir einen Blindvergleich oft nicht zutrauen, bei 3K oder 1440p glaube ich würde ich die Unterschiede oft nur in Bewegung sehen trotzdem sehen da oft beide Techniken klasse aus und nicht selten bieten sie mehr Schärfe was mir z.B. besser gefällt wie das oft alles todschlagende TAA der Spiele.

Bei 1080p finde ich gibt es nur wenige Spiele wo DLSS oder FSR2 überhaupt überzeugen können, das sieht dann oft grusselig aus (Sehr gutes Beispiel CP auf einem 1080p Monitor und dann mal DLSS oder FSR2 einschalten, das willst Du nicht wirklich spielen egal welche Qualitätsstufe, in 4k sieht selbst Performance deutlich besser aus wie 1080p Qualität, dann lieber die anderen Regler in dem Spiel bedienen. Als NV Nutzer hat man halt die Wahl ;-). Als AMD User muss man nehmen was man bekommt.

Das macht aber gerade die Mittelklasse wie eine 4070 von NV extrem interessant, Da ist man bei den heutigen Spielen schon ab und an bei 1440p am Anschlag und will vielleicht ein paar FPS mehr da hat man oft die Wahl DLSS 2/3 mit oder ohne FG oder FSR2, da wird sich schon was finden womit man sich arrangieren kann.

Wenn Du eine AMD Karte hast, kann es dir dann passieren wenn die Entwickler so faul waren und FSR2 nicht integriert haben, dass eine 4070 deine eigentlich schnellere 7900er visuell und performancetechnisch in den Popo tritt, würde mich dann schon ärgern.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Ich weiß, es gab schon verschiedene Anläufe das Diagramm für das PL-Verhältnis darzustellen, aber ich muss einfach sagen, die Darstellung ist nach wie vor einfach nicht geglückt. Irgendwie kann das nicht der Weisheit letzter Schluss gewesen sein...
 
  • Gefällt mir
Reaktionen: Snakeeater
Dittsche schrieb:
also wenn es die 4080 mittlerweile sogar schon ab 1129 Euro gibt muss die 7900xtx auf 950 Euro runter. Oder was ist aus dem Kostenvorteil aus dem Chiplet Design geworden?
Der Kostenvorteil war gegenüber AD102 (4090). Darüber wurde so oft geredet, da man immer dachte, N31 könnte locker mit AD102 konkurrieren. Gegenüber AD103 (4080) hat man aber keinen Kostenvorteil. Der ist nur unwesentlich (20%) größer als der GCD von N31, bei letzterem kommen dann noch ganze 6 MCDs und Packaging dazu. Das Kostenduell geht da locker an Nvidia.
 
Die mcd und somit das MCm bei amd hat nen bug der erstens die taktraten limitiert und zweitens den verbrauch erheblich ansteigen lässt.
Das ist bekannt und wird mit rdna3+ behoben das ein refresh der ganzen rdna3 serie kommt ist sicher und auch der Grund warum bisher kein n32 sku gekommen ist und die rx7600 die letzte sein wird Bis amd rx8000 bringt.
Die frage die bleibt ist Wann
 
Die Energieeffizienz ist einfach erstaunlich bei ADA und eigentlich hat AMD am Anfang ja genau darauf abgezielt, dass man in diesem Bereich wieder Top sein wollte. Genau das Gegenteil ist eingetroffen. 100 Watt im Desktop Betrieb nur für die Grafikkarte ist einfach nicht zu akzeptieren, wenn man seinen Rechner am Tag laufen hat.

Dagegen skaliert ADA einfach perfekt in jedem Bereich. Egal ob Desktop, mehrere Monitore, andere Auflösungen oder mit entsprechenden Limits. Die 4080 läuft bei mir sogar bis ca. 100 Watt ohne Lüfter, weil der Kühlkörper einfach so massiv ausfällt. Gerade an heißen Tagen im Sommer kann man auch einfach auf 150 Watt limitieren und trotzdem noch in 4k spielen, dank DLSS3. Von der Technik und mit 16GB eine super Karte für die Zukunft. Wird sicherlich auch noch unter 1000€ fallen.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Seppuku schrieb:
Besteht eine Chance auch ältere Generationen später noch in den Vergleich einfließen zu lassen? Gerade in der aktuellen Zeit sind noch viele Leute mit älteren Grafikkarten unterwegs. Zumindest 1-2 Referenzen aus älteren Generationen wäre für die grobe Abschätzung der zu erwarteten Leistungssteierung sehr hilfreich. Dann müsste man nicht über 2-3 andere Quervergleiche die Leistung ableiten 😉
Die Idee finde ich sehr gut. Ich würde die X70 bei NV und X700 bei AMD als Referenz Punkte vorschlagen.
 
Angiesan schrieb:
Bei 1080p finde ich gibt es nur wenige Spiele wo DLSS oder FSR2 überhaupt überzeugen können, das sieht dann oft grusselig aus (Sehr gutes Beispiel CP auf einem 1080p Monitor und dann mal DLSS oder FSR2 einschalten, das willst Du nicht wirklich spielen egal welche Qualitätsstufe, in 4k sieht selbst Performance deutlich besser aus wie 1080p Qualität, dann lieber die anderen Regler in dem Spiel bedienen.
DAS wird vermutlich am LOD oder generell an der Geometriedarstellung in den Games liegen.(x)
(zuwenig Polygone@720p-->1080p upsamplen funzt dann net gut, weil die Basis sooo schlecht ist)

Gegenbsp. = FSR2-Demo von AMD, wo genug Details da sind für Upsampling
https://github.com/GPUOpen-Effects/FidelityFX-FSR2/releases/tag/v2.1.2
einfach mal selber ausprobieren

(x) eigentlich müßten die Studios wg. dem Steamdeck mal das LOD in 720p verbessern, damit dann FSR2
mehr nutzbar ist

Wolfgang schrieb:
Wenn ichs ganz genau nehmen will, sind native Ultra-HD-Benchmarks in modernen Spielen ohnehin ziemlich fake. Ich persönlich spiele so zum Beispiel auf meinem UHD-Monitor nicht mehr, wenn es auch anders geht. Ich spiele lieber in UHD mit DLSS oder FSR 2 auf Quality.
1+, ... sollte dann wie WQHD@60fps sein

60fps@FHD hat auch kaum nen Wert für größere GPU´s, ... genauso uninteressant wie nativ 4k@60fps

Eigentlich kann man also 4k+FHD weglassen und stattdessen 4k@FSR2 reinnehmen beim 60Fps Teil.
 
Zuletzt bearbeitet:
DLSS funktioniert übrigens incl. FG auch mit DSR Faktoren 1,78 und 2,25 und auch mit VRR . Das sieht dann auch prima in FHD auf einem FHD Monitor aus.
 
Gaugaumera schrieb:
Aktuell kann man aber eh kaum eine Grafikkarte empfehlen
Also die RX6700er und die Arc 750 sind recht gut finde ich auch die RX6600er sind klasse. 😉
 
Fighter1993 schrieb:
Die 7900XTX ist jetzt 10% vor der 3090Ti in RT. Nicht schlecht. Amd holt auf.
Nein, AMD holt in RT nicht auf. Fast alle Titel sind Hybride, also massiv Raster mit ein bisschen RT.
Sollte klar sein, dass AMD mit leichtem RT nicht so weit zurückfällt. Sobald ein Spiel aber starken gebrauch von RT (Schatten, Reflexionen etc. mit vielen Bounces/Rays oder gar Path Tracing) macht, fallen sie weit zurück.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll, Khazdy und Pro_Bro
Wolfgang schrieb:
Wenn ich für die Arc A770 in Returnal WQHD nun 1 eintragen würde, würde der Rückstand zur RX 6700 XT im Rating nicht mehr bei 20 Prozent zur RX 6700 XT liegen, sondern bei 36 Prozent. Wie soll so ein riesen Unterschied sinnvoll sein? Das wäre halt ein Ergebnis, das massiv von einem einzigen Benchmark beeinflusst wäre.
Schon klar, dass ihr das vermeiden wollt. Aber es ist doch normal, dass wenn man bei einer Messung ein Ausreißer hat, dann nimmt man den Ausreißer raus. Keiner würde auf die Idee kommen den Ausreisen mit einem Fake-Wert zu versehen und genau deswegen habe ich ja Gegenvorschläge gemacht, die auch funktionieren würden, ohne Fake-Werte:
Convert schrieb:
... Oder es gibt ein Rating mit allen Spielen und nur mit Grafikkarten die das geschafft haben (ohne Absturz) und ein zweites Rating, wo die abgestürzten Spiele raus genommen worden sind, dafür aber alle Grafikkarten dabei sind. Kann man alles machen, ist auch alles besser als irgendwelche "Fake-Werte" in das Rating einzutragen.
Dann weiß jeder bei diesem reduzierten Spielrating: Aha die Arc 770 ist 20 Prozent langsamer als RX 6700XT und stürzt zusätzlich bei 3 Spielen komplett ab.
 
Zwirbelkatz schrieb:
Dafür zahlt man dann in Form einer brandneuen RTX 4060 Ti 8GB mutmaßlich über 450€, um ab Tag 1 die Regler runter zu drehen? Will man das als Kunde; in Zeiten historisch niedriger Speicherpreise?
Du hast eine Karte der unteren Mittelklasse gekauft. Damit sind keine max. Settings drin.
Deal with it.

Chismon schrieb:
Schon The Witcher 3 (+RT) zeigt eine ziemlich einseitige Optimierung des Spiels auf einen Chipentwickler/-sponsor, Cyberpunk 2077 ist m.E. mit der absurden RT-PT Version ueberhaupt nicht repraesentativ und wuerde damit das Gesamtbild als Einzelspiel sehr deutlich verzerren.
Weil dir das Ergebnis nicht zusagt, ist die Entwicklung einseitig?
Es ist doch kein Geheimnis, dass die Nv Karten viel stärker in sachen RT sind. Jedes Spiel mit Path Tracing oder starker Nutzung von RT Effekten zeigt das auf und immer wieder wird behauptet, dass das ja an der einseitigen Entwicklung liegt.
Wenn dem so ist, dann zeig mir nur ein Gegenbeispiel. Aber ein richtiges und nicht sowas wie Far Cry, F1 oder RE, die minimalen Gebrauch von RT machen.
 
Zuletzt bearbeitet:
Vielen Dank für den aktuellen Parcours.

Ich wusste ja, dass meine RX 6700XT bei aktuellen Titeln hinten dran steht, aber dass es selbst im mehrere Jahre alten Witcher 3 (jaja, wurde mehrfach aktualisiert) in 1440p ohne RT mal gerade so für 50 fps avg reicht, hat mich doch etwas kalt erwischt, weil der Titel eigentlich mal bald vom pile of shame runter sollte.
 
@Wolfgang Könnt ihr RDNA2/3 mal in verschiedenen Zwischenkonstellationen auf den idle-Verbrauch testen?

Ich hab z.B. WQHD@75Hz + FHD@60 Hz (Sound) am Start, aus euren Werten könnte ich jetzt nicht abschätzen ob RDNA da gechillt wäre oder eskalieren würde.

Ich finde übrigens alle gemessen Werte zu hoch für 2023. Mein kompletter PC braucht gerade mal etwas über 40 Watt idle.
 
Angiesan schrieb:
Ich rede vom Verbrauch der Grafikkarte, nicht vom Monitor und doch der Verbrauch der Grafikkarte verändert sich zumindest laut diversen Tools wenn ich HDR einschalte.
Er behauptet nichts anderes :confused_alt:

Ich kann keine nennenswerte Veränderung im Verbrauch bestätigen, zwischen 8 bpc, 10 bpc und 12 bpc. Höchstens 2 Watt Schwankung.
Bei aktiviertem HDR sind es ca. 6 Watt mehr.
4K@120Hz
 
Zurück
Oben