Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Wolfgang schrieb:
Ganz schön viel Aufwand und interessant!
Ist dann aber schon die Frage, wie du das mit der Leistungsaufnahme hineinrechnest. Das kann ja ganz schön wild werden. Also wie viele Stunden Idle am Tag, wie viele Stunden Last etc. Das macht das ganz schön dynamisch, schwer das auf einen sinnvollen Punkt zu bekommen.

Das freut mich zu hören. Zur Berechnung der Leistungsaufnahme bin ich von 1100 Stunden pro Jahr ausgegangen, von denen 0% Idle sind, da dies im großen und ganzen meinem aktuellen Nutzungsschema entspricht. Die Formel ist bisher nur auf mich abgestimmt und müsste für andere Nutzer entsprechend angepasst werden, das siehst du schon ganz richtig.

In meiner Rechnung werden die Betriebskosten errechnet mit Hilfe des Verbrauchs im Gaming (laut TechPowerUp-Review) multipliziert mit den geschätzten Spielstunden pro Jahr, Nutzungsdauer der Grafikkarte in Jahren, und dem Preis pro kw/h.

Je nach Spielstunden landen dann gerne die AMD oder Nvidia-karten weiter vorne, da die Nvidia-Karten ihren Effizienzvorteil ausspielen können.

Bildschirmfoto 2023-05-18 um 11.53.15.png
 
Zuletzt bearbeitet:
Und Was passiert nun in 4k60fps@FSR2 ?

Die Meisten brauchen net Mehrleistung sondern wollen nur wissen, Was bei 60fps die Kosten sind.
(übrigens würde ein 120Hz-Moni dank LFC die Bilder auch verdoppeln und weiterhin mit 120Hz ausgeben,
... wie FSR3-FG mal wird, who knows, hoffentlich bald anzuschauen)
 
Zuletzt bearbeitet:
@BoardBricker
Als ich Witcher3 zuletzt gespielt habe, war das noch auf einer 1060 und das Spiel lief mit 45-50 FPS in 1440P. Ich bin ehrlich gesagt zu faul um das Spiel nochmal zu installieren und mit der 6700 XT zu testen. Ich kann mit Witcher 3 nichts anfangen, nur bis LVL 6 gespielt, deinstalliert und nie wieder angefasst.
 
Convert schrieb:
Schon klar, dass ihr das vermeiden wollt. Aber es ist doch normal, dass wenn man bei einer Messung ein Ausreißer hat, dann nimmt man den Ausreißer raus. Keiner würde auf die Idee kommen den Ausreisen mit einem Fake-Wert zu versehen und genau deswegen habe ich ja Gegenvorschläge gemacht, die auch funktionieren würden, ohne Fake-Werte:

Dann weiß jeder bei diesem reduzierten Spielrating: Aha die Arc 770 ist 20 Prozent langsamer als RX 6700XT und stürzt zusätzlich bei 3 Spielen komplett ab.
Aber wären 2 verschiedene Ratings nicht vollkommen verwirrend? Da müsste man sich ja schon richtig mit den Artikel beschäftigen und nachlesen, wie es 2 verschiedene Ratings geben kann und in wie weit die sich unterscheiden, auch wenn sie auf dem ersten Blick eigentlich gleich sein sollten.

Ich sage nicht, dass die aktuelle Lösung optimal ist. Ich sehe nur keine, die wirklich besser ist, ohne in anderer Form maximal zu verwirren.
 
MrHeisenberg schrieb:
Nein, AMD holt in RT nicht auf. Fast alle Titel sind Hybride, also massiv Raster mit ein bisschen RT.
Sollte klar sein, dass AMD mit leichtem RT nicht so weit zurückfällt. Sobald ein Spiel aber starken gebrauch von RT (Schatten, Reflexionen etc. mit vielen Bounces/Rays oder gar Path Tracing) macht, fallen sie weit zurück.
Bin ich aber auch erst drauf reingefallen, bis ich gesehen habe das einfach so weit runter gestellt wurde bis es auf allen Karten läuft. Sind aber auch wieder Spiele dabei 🫣 Naja schön wäre es schon gewesen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
@Shaav Wow, 365 Tage x 24 Std = 8760 Std / 1100 = ca. 8 Std pro (jeden) Tag.
Jeder, wie er Bock hat, klingt für mich eher nicht nach Familie, Kinder ...


Edit: Auf passenden Koffeinpegel achten, hilft mir beim Denken ;)
 
Zuletzt bearbeitet:
Schöne Übersicht, meine Wahl macht es mir aber nicht leichter. Ich bin leider weder Nvidia noch AMD Fan, habe also die Qual der Wahl zwischen 12GB VRAM (4070 und Ti), Budgetsprenung (4080) und hoher Leistungsaufnahme im Idle bei 144Hz+ (7900 XT). Da muss man ja wirklich genau schauen, welches Gift einem eher zum Verhängnis wird.

Ich nehme mal an, dass auch AMDs Hybrid Graphics das RNDA3-Problem nicht löst/mildert?
 
No Escape schrieb:
@Shaav Wow, 365 Tage x 24 Std = 8760 Std / 1100 = ca. 8 Std pro (jeden) Tag.
Jeder, wie er Bock hat, klingt für mich eher nicht nach Familie, Kinder ...

Überprüf nochmal mal deine Rechnung. Was du ausgerechnet hast ist, dass auf jede 8te- Stunde eines Jahres, eine Stunde Gaming kommt. das wären dann 3 Std. pro Tag und nicht 8 Std. pro Tag ;)
 
  • Gefällt mir
Reaktionen: No Escape und Benni16it
Hm wenn man so will gibts überall Einschränkungen.
Wüsste nicht was ich mir aktuell holen würde.
Entweder zu wenig Leistung im Raster oder/und RT, zu wenig Speicher, zu viel Strombedarf im Idle, zu viel Strombedarf unter Last oder halt einfach Tausend Euro zu teuer^^
Faszinierender finde ich momentan Handhelds.
Die Leistung in diesem kleinen Formfaktor bei minimaler Leistungsaufnahme finde ich richtig nice!
Hätte ganz gerne eine starke APU in einem winzigen Desktopgehäuse.
 
Toller Parcour, da sollte keiner was zu meckern haben.

Freue mich auf die Ergebnisse der neuen 8GB-Karten!
 
MrHeisenberg schrieb:
Weil dir das Ergebnis nicht zusagt, ist die Entwicklung einseitig?
Es ist doch kein Geheimnis, dass die Nv Karten viel stärker in sachen RT sind. Jedes Spiel mit Path Tracing oder starker Nutzung von RT Effekten zeigt das auf und immer wieder wird behauptet, dass das ja an der einseitigen Entwicklung liegt ... dann zeig mir nur ein Gegenbeispiel. Aber ein richtiges und nicht sowas wie Far Cry, F1 oder RE, die minimalen Gebrauch von RT machen.
Wer lesen kann ist klar im Vorteil (bei Dir scheint das nicht der Fall zu sein).

Es ist nicht repraesentativ bei dGPUs ab 1100 Euro und wenn es so laecherlich optimiert ist, dass eine RTX 3070 schneller sein soll als eine RX 7900XTX, dann ist auch das alles andere repraesentativ sondern ziemlich offensichtlich (bei CD Projekt Red eingekauft) unoptimiert bzw. gesponsort, so dass selbst jemand wie Du mit gruener Brille da nicht gegen argumentieren kann (da es ein ziemlich absurder Einzelfall ist).

Wenn ich wollte, braeuchte ich mich nur bei den Parcoursbeispielen um zu sehen und etwa Callisto Protocol + RealTime-RayTracing (RT-RT) nehmen (in dem die RX 7900XTX vor der RTX 4080 liegt), aber Dir wird das eine Gegenbeispiel natuerlich nicht zusagen, denn dazu scheinst Du viel zu voreingenommen zu sein bzw. es passt nicht in Dein einseitiges Weltbild ;).

Natuerlich ist nVidia im RT-RT und RT-PT voraus, zumal sie 2 Jahre frueher mit der Implementierung angefangen und somit Vorsprung haben und AMD einen anderen Ansatz verfolgt, aber RayTracing ist bisher trotz Marketing-/Medienhype kein "must-have" in Spielen, auch wenn der nVidia CEO Huang anderes angekuendigt hatte, sondern immer noch ein Feature (ohne welches Spiele in den einigen Faellen genauso gut und in vielen sogar besser/fluessiger laufen, da es immer noch zu viel Leistung oder Speicherressourcen kostet).

Fuer mich und wohl die Mehrheit ist beim Grafikkartenkauf immer noch Rasterizerleistung und Speicherausbau ausschlaggebend und eben nicht RT-RT (ganz zu schweigen von RT-PT, welches nur ab Grafikkarten von 1100(+) ansatzweise vernuenftig spielbar ist bisher).

Was bringt einem bspw. eine RTX Einsteigerkarte, der mit RT-RT der verbaute Speicher zu knapp wird oder mit der man nur auf Full-HD dann limitiert ist, so dass man das komplette Grafikfeature - denn mehr ist es bis heute nicht, man braucht es in Spielen notwendiger Weise nicht im Gegensatz zu Rasterizerleistung und ausreichend Speicher - in der Pfeife rauchen kann.

Soviel zur Relevanz von RT-RT (geschweige denn RT-PT) bei Grafikkarten allgemein, mehr als "nice to have" ist dieses Feature bis heute nicht und man kauft eine Grafikkarte primaer um damit erst einmal (idealer Weise) in hoeheren Aufloesungen (die einen groesseren optischen Unterschied machen) oder laengere Zeit mit ausreichender leistungsfaehiger Technik spielen zu koennen (nicht alle 2 Jahre spaetestens das Geld fuer eine noch teurere Grafikkarte ausgeben zu muessen) und nicht am Speicher oder Rasterizerleistung zu verhungern, wie das schon jetzt absehbar bei den nVidia RTX 4070Ti Modellen und darunter zu beobachten ist (wenige Monate seit dem die Karten ueberhaupt erst auf dem Markt sind).

Zum Glueck lassen sich viele vorausschauend kaufende Kunden nicht veraeppeln bei den ueberzogenen Grafikkartenpreisen und dieser (speicher-)kalkulierten Kundenpolitik und die Produkte verkaufen sich nur sehr schleppend (daher auch die zaghaften aber wohl unumgehlichen Preissenkungen bei nVidia).
 
Zuletzt bearbeitet:
DerRico schrieb:
Freue mich auf die Ergebnisse der neuen 8GB-Karten!
in Diablo 4

Bitte dann erstmal ein bisschen rumlaufen bis der Vram sich gefüllt hat, bevor irgendwelche minFps gemessen werden. (vllt. als separate Frametime Geschichte)

btw.
anscheinend soll tatsächlich die 8GB-4060Ti so ca. 450 Tacken kosten und die 16GB dann 550
lt. Leaks wäre ne 4060nonXT ca. 15% schneller als ne 3060 und die 4060Ti ca. 10% als die 3060Ti
(summsumarum ist P/L net besser geworden)
 

Anhänge

  • RTX-4060-PERFORMANCE.jpg
    RTX-4060-PERFORMANCE.jpg
    114,7 KB · Aufrufe: 133
  • RTX-4060TI-16GB-PERFORMANCE.jpg
    RTX-4060TI-16GB-PERFORMANCE.jpg
    129,8 KB · Aufrufe: 137
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerRico und Steini1990
Chismon schrieb:
Es ist nicht repraesentativ bei dGPUs ab 1100 Euro und wenn es so laecherlich optimiert ist, dass eine RTX 3070 schneller sein soll als eine RX 7900XTX, dann ist auch das alles andere repraesentativ sondern ziemlich offensichtlich (bei CD Projekt Red eingekauft) unoptimiert bzw. gesponsort, so dass selbst jemand wie Du mit gruener Brille da nicht gegen argumentieren kann (da es ein ziemlich absurder Einzelfall ist).
Ich sehe es anders. Wenn ich wissen will, wie hoch die RT Leistung einer Karte ist, kann ich nicht mit hybriden testen, denn die verfälschen das Ergebnis.
Was man hier sieht ist nicht die RT Power, sondern Raster + 1-2 RT Effekte, deshalb sind solche sachen wie die PT Demo von CyberPunk viel Aussagekräftiger.

Chismon schrieb:
Wenn ich wollte, braeuchte ich mich nur bei den Parcoursbeispielen um zu sehen und etwa Callisto Protocol + RealTime-RayTracing (RT-RT) nehmen (in dem die RX 7900XTX vor der RTX 4080 liegt), aber Dir wird das eine Gegenbeispiel natuerlich nicht zusagen, denn dazu scheinst Du viel zu voreingenommen zu sein bzw. es passt nicht in Dein einseitiges Weltbild ;).
Frage an dich: Warum liegt die 7900XTX hier vor der 4080?
Weil die 7900XTX mehr RT Leistung hat? Mit Sicherheit nicht, denn es liegt an der Rasterleistung. Das bisschen RT wird hierbei wegkompensiert.
Ist das Spiel also Aussagekräftig, um die RT Leistung einer Karte zu bewerten? Nein.
Der Benchmark ist auch nicht mit max. RT Settings gemacht worden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
Shaav schrieb:
Überprüf nochmal mal deine Rechnung. Was du ausgerechnet hast ist, dass auf jede 8te- Stunde eines Jahres, eine Stunde Gaming kommt. das wären dann 3 Std. pro Tag und nicht 8 Std. pro Tag ;)
Stimmt, Kaffeepegel nicht erreicht, dringend auffüllen.
 
  • Gefällt mir
Reaktionen: Jenergy
MrHeisenberg schrieb:
Nein, AMD holt in RT nicht auf. Fast alle Titel sind Hybride, also massiv Raster mit ein bisschen RT.
Sollte klar sein, dass AMD mit leichtem RT nicht so weit zurückfällt. Sobald ein Spiel aber starken gebrauch von RT (Schatten, Reflexionen etc. mit vielen Bounces/Rays oder gar Path Tracing) macht, fallen sie weit zurück.
Das würde ja bedeuten das die neueren Spiele immer weniger RT einsetzten.
 
  • Gefällt mir
Reaktionen: Redundanz
MrHeisenberg schrieb:
Frage an dich: Warum liegt die 7900XTX hier vor der 4080? Ist das Spiel also Aussagekräftig, um die RT Leistung einer Karte zu bewerten? Nein.

Es (Callisto Project) ist zumindest kein Einzelbeispiel im Gegensatz zur einseitig optimierten RT-PT Demo von Cyberpunk 2077/CD Projekt Red (da eine RX 7900XTX mit einer RTX 3070 in RT-RT sonst Schlitten faehrt; selbst meine aeltere RDNA2 dGPU ohne Tensorkerne ist in RT-RT im Schnitt schneller als eine RTX 3070 und gar nicht so viel schneller in der Rasterizerleistung, welches Dir zu denken geben sollte).

Mehrere andere Beispiele, die Dir (vermutlich bei gleicher Begruendung) nicht zusagen, hattest Du auch schon angefuehrt, und somit ist es kein Einzelfall und vielleicht doch nicht so einfach wie Du es Dir denkst/machst (dass die Rasterizerleisrung die RT-RT Leistung kompensieren soll), zumal das bis dato nicht nachgewiesen wurde und nur ein Erklaerungsversuch (Deinerseits) ist.

Nur weil etwas nicht RTX ist (sondern einen anderen Ansatz hat, der aber auch das urspruengliche DXR von Microsoft - nicht nVidia, die darauf nur aufbauen - gut einbindet), soll es kein echtes RT-RT sein? Das ist eine selten bescheidene Begruendung/Argumentation, die glatt vom nVidia Marketing kommen koennte.

Es ist teilweise architektur- und titelabhaengig, ebenso wie Intels RT-RT Loesung in einigen Spieletiteln richtig gut gelungen ist in erster Generation, aber generell liegt nVidia bei RT-RT vorne, welches bei dem Zeitvorsprung bzgl. der Einfuehrung und bei den Marktanteilen/der Marktfuehrerschaft kein Wunder ist.
 
Ahaha, das Diagramm zeigt fast 200 FPS bei MSFS. Vielleicht wenn du die komplette Simulation killst, also alles was eine Simulation ausmacht abschaltest, wie Wetter, KI Verkehr, etc. und das einfachste Flugzeug nimmst und auf 15.000m steigst und nur Weltraum mit der Außenkamera anstarrst.
 
Ich sehe mich ja "emotional" ja eher im AMD-Lager.

Das lohnt momentan leider überhaupt nicht. +120hz und Reflex/GYSNC und meine eigene Auflösung nach Wahl. - Was ja bei AMD dann Radeon Boost wäre, das ist doch genau das, warum ich am PC Spiele und nicht auf der Konsole. Da darf AMD nicht so versagen.

Da liegt echt noch verdammt viel Arbeit vor AMD.

Vielen Dank für den Artikel. Ein weiterer Artikel wo Radeon Boost und adaptive Sync vs. NVIDIA-Lösungen in Verbindung mit neuen Monitoren und Grafikkarten thematisiert werden, wäre ein Träumchen.
 
Zurück
Oben