Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

  • GefĂ€llt mir
Reaktionen: incurable, Jan und Recharging
1684326638857.png


In den CPU-Test sind beide Games aber ebenfalls nicht vorhanden. Dabei wĂ€ren sie, dieser Argumentation hier folgend, fĂŒr einen aussagekrĂ€ftigen CPU-Test ja regelrecht prĂ€destiniert.
 
  • GefĂ€llt mir
Reaktionen: Michael vdMaas
Der neue Testparcours gefĂ€llt mir gut. Da hat Wolfgang mit Sicherheit viel Arbeit mit gehabt. 👍
Jetzt höre ich mir erstmal den Podcast zu dem Thema an. :)
MFG Piet
 
Danke CB Team fĂŒr eure mĂŒhe und Arbeit
 
  • GefĂ€llt mir
Reaktionen: Seby007
GeForce-Grafikkarten können zumindest bei kurzer Spielzeit das Problem noch umgehen, hier hilft das bessere Speichermanagement. Dabei ist es aber immer fraglich, ob mit lÀngerer Spielzeit die Probleme nicht auch auf einer GeForce eintreten werden.

Fraglich ist das leider schon lange nicht mehr, siehe folgende Testvideos, und daher ist das sicherlich leicht bessere Speichermanagement bei nVidia Grafikkarten (welches aber eigentlich nur bei gleicher Speichergroesse ein Faktor ist) sicherlich kein Grund zur Beschoenigung im Vergleich zu AMD/RTG und Intel Grafikkarten (8GB sind mittlerweile nur noch fuer Einsteiger-dGPUs zu vermitteln, da man immer haeufiger damit auch schon in Full-HD verhungern kann in neuen Spielen, egal von welchem Chipentwickler/Boardpartner die 8GB Grafikkarten sind):



Besonders das untere Speichervergleichsvideo von PCGH hat mir sehr gut gefallen und es waere schoen, wenn so ein Testansatz in nicht allzu ferner Zukunft auch bei ComputerBase einziehen wuerde, da der Speicherausbau immer relevanter fuer den Grafikkartenkauf werden duerfte ;) @Wolfgang .

Ansonsten begruesse ich den neuen Testparcours :), wobei ich zugegebenermassen einen sehr fordernden Titel - wie Total War: Warhammer 3 etwa oder irgendwann dann Immortals of Aveum - sinnvoller/relevanter gehalten haette als ein Konsolenport wie Uncharted.

Das Highlight des Artikels sind fuer mich die sehr aufschlussreichen, neu durchgefuehrten Temperatur-, Lautstaerke- und Effizienzmessungen der einzelnen dGPU-Modelle.
Erstaunlich, dass sich mit Umstieg auf 144 Hz bspw. bei einer RDNA2 RX 6800XT im Leerlauf der Verbrauch ca. verfuenffacht (auf den Level der Dual-Monitor-Konfiguration, die relativ konstant bleibt unabhaengig von der Bildwiederholfrequenz).
Da gaebe es in der Tat (bei AMD/RTG) noch weiteren Treiberoptimierungsbedarf, bei RDNA3 ist es ja noch wesentlich offensichtlicher.

Was die Preis-Leistungsempfehlung angeht, sehe ich auch bei WQHD eine RX 6950XT (vor allen Dingen in Angeboten in etwa auf gleicher Preishoehe zu) einer RTX 4070 als klar ueberlegen an, wenn Effizienz nicht im Vordergrund steht (quasi alles entscheidend sein soll).
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Redundanz, Rockstar85 und MiroPoch
Danke CB-Team fĂŒr diesen Test. Vor allem das Preis-Leistungsdiagramm finde ich immer sehr hilfreich bei der Auswahl der GPU.
 
  • GefĂ€llt mir
Reaktionen: Cleanor und Recharging
Wenn man den Preis der 4080 mal etwas ausklammert ist das (speziell im SFF-Segment) eigentlich ne supergeile Karte. Geringer Stromverbrauch, wenig LĂŒfterdrehzahl, 16GB VRAM, mehr Leistung als man braucht, leicht zu deshrouden bzw. guter FE-KĂŒhler. Nette Karte.

[dreistelliger Preis wĂ€re halt gut... 979€ o.Ă€.]
 
  • GefĂ€llt mir
Reaktionen: AntiPriester, Pro_Bro, No Escape und 3 andere
Danke fĂŒr das Update @CB!

Ich liebĂ€ugele fĂŒr einen neuen (weißen) Build mit einer Combo aus 13600k und 4070, deren P/L ja mit stetig sinkendem Preis in akzeptable(re) Regionen zu gelangen scheint.

4070ti und 4080 sind da den Aufpreis leider nicht wert, fĂŒr knapp 50% mehr Aufpreis von der 4070 zur 4070ti erhĂ€lt man (Rasterizer) nur 24% mehr Leistung. Nein Danke, NV...

(Der Aufpreis errechnet sich fĂŒr mich anhand der gĂŒnstigsten weißen Modelle auf Alternate, Stand heute. Das sind von einer 4070 auf eine 4070ti geschlagene 46%).
 
Endlich mal wieder ein wirklich informativer und sauber erarbeiteter Test, klasse CB!

Obwohl ich den Test sehr gut aufgearbeitet finde möchte ich ein paar kritische Worte zu den Einstellungen Ă€ußern. Ich finde den Ansatz prima, dass man die Einstellungen wĂ€hlt, die auf einer Vielzahl von Grafikkarten spielbar ist, testet. Diesen Ansatz wĂŒrde ich immer fĂŒr optimal betrachten wenn es um einen Techniktest zu einem neuen Spiel geht. Der Besitzer einer schnelleren Grafikkarte bei z.B. der RT Leistung wird dann wissen, ok auf meiner HW geht vielleicht noch etwas mehr "schön" oder mehr "FPS". Dieser Ansatz wird auch schon seit Jahren von anderen HW- und Gamer- Seiten verfolgt.

Bei einem Vergleich von schon vorgestellten Spielen und im Rahmen eines Grafikkartenvergleiches halte ich diesen Ansatz fĂŒr suboptimal, man will ja schließlich wissen wie viel schneller oder langsamer ist meine Wunsch- oder schon im Besitz befindliche HW. Da darf es dann gerne auch die weniger leistungsstarken Karten ĂŒberfordern, sonst kann man gleich mit fĂŒr die HW optimierten Settings antreten und die ersten 10 Balken sind alle mehr oder weniger gleich lang ;-). Außerdem hat die Benchauswahl mit dem Ansatz der reduzierten Einstellungen, eine extrem kurze Lebensdauer. Schon alleine eine neue leistungsfĂ€higere CPU könnte dann den Grafikkartenvergleich deutlich beeinflussen. Die RTX 4090 bekomme ich hier selbst in 4K und mit Trullala nicht immer voll ausgelastet da mein kleiner Raptor schon oft aus dem letzten Loch pfeift. In kleineren Auflösungen auch der beliebten 3440 x 1440 die ich bis vor wenigen Wochen verwendet hatte, ist es eher die Regel denn die Ausnahme, dass die CPU limitiert.

Ich wĂŒrde da noch mal drĂŒber nachdenken, ansonsten wie schon oben geschrieben, toller Test.
 
  • GefĂ€llt mir
Reaktionen: MoinWoll
FĂŒr den gleichen Preis hĂ€tte ich die 7900 XTX wohl meiner 4070 TI vorgezogen. Obwohl mich der Stromverbrauch ein bisschen abschreckt. So oder so , die 4070 TI ist trotz allem eine gute karte.auf 2000 euro 3090 TI Level bei ĂŒberragender Effizienz.
 
also wenn es die 4080 mittlerweile sogar schon ab 1129 Euro gibt muss die 7900xtx auf 950 Euro runter. Oder was ist aus dem Kostenvorteil aus dem Chiplet Design geworden? Ging wohl in die Marge.
Anhand der Zahlen ist der Raster Vorteil fast. verpufft, schneller wurde die Karte mit Treiberupdates nicht mehr (wie auch schon bei Vega). Raytracing ist 10% langsamer was akzeptabel ist. Dagegen sind 16GB RAM sind ausreichend bei der 4080. Aber von FSR 3 hoert man immernoch nix und bei solchen Features sind sie einfach zu lahm. Die hoffen wohl noch dass ihnen die Open Source Contributors das kostenguenstig zusammenkloeppeln. Wann gabs die letzte wirkliche nachhaltige Innovation mit Nutzervorteil bei AMD?
Stand heute haette ich die 4080 gekauft. Einfach immernoch zuviel Geschiss bei Radeon. Peinlich!
 
  • GefĂ€llt mir
Reaktionen: AntiPriester, Rockstar85, Pro_Bro und 2 andere
Mir fehlt einzig DLSS/FSR2 und vor allem FG. Auch, wenn die ĂŒblichen wieder ihr "Bildverschlimmbesserer"-Mantra auspacken und einem das Gegenteil einreden wollen.

Wenn ich damit ein besseres Bild bekomme - was sehr hĂ€ufig der Fall ist - dann interessieren mich Benchmarks in nativer Auflösung natĂŒrlich nicht mehr. WĂ€re ja ziemlich merkwĂŒrdig, wenn ich bewusst in schlechterer QualitĂ€t spiele, nur weil es ja "nativ" ist.

Bei FG ist das Performanceplus halt enorm und es funktioniert nĂŒchtern betrachtet auch oftmals richtig gut. Gerade TW3 mit RT ist so ein Beispiel, da ist das einfach ein Gamechanger.
 
  • GefĂ€llt mir
Reaktionen: AntiPriester, AI94, Pro_Bro und eine weitere Person
Absolut schockierend ist die Leistungsaufnahme von AMDs neuen RDNA-3-Grafikkarten im High-End-Segment, wenn in Ultra HD 144 statt 60 Hz auf dem Desktop genutzt werden. Aus 17 Watt bei der Radeon RX 7900 XTX werden dann mal eben satte 104 Watt. [...]
Seit dem Launch von RDNA 3 steht das Verhalten so zwar als Bug in den Release-Notes sĂ€mtlicher Radeon-Treiber, doch hat sich diesbezĂŒglich eben seit fĂŒnf Monaten absolut nichts geĂ€ndert. Und ein UHD-144-Hz-Display ist bei KĂ€ufern einer RX 7900 XT/XTX sicherlich keine Seltenheit. Das ist etwas, was AMD unbedingt angehen muss. Und zwar schnellstmöglich, nicht irgendwann.
Kann dem nur zustimmen. FĂŒr ne Grafikkarte dieser Preisklasse absolut inakzeptabel.
 
  • GefĂ€llt mir
Reaktionen: MrHeisenberg, wtfNow und Recharging
Nv hat auch ein idle problem bei 10b farbtiefe. von 15w auf 30w bei mir.
 
  • GefĂ€llt mir
Reaktionen: Recharging und Daniel#
Experte18 schrieb:
auf 2000 euro 3090 TI Level bei ĂŒberragender Effizienz.
Du kannst du keine 2000€ teure 3090Ti als Vergleich nehmen wenn du schon fĂŒr eine 4090 weniger als 2k bezahlst.

Ansonsten: Super Testpacour!
 
  • GefĂ€llt mir
Reaktionen: Orok91, MoinWoll und Anon-525334
Daniel D. schrieb:
Das finde ich auch. Vielleicht kann man das ĂŒber separate Tests nachholen.

Werden die VerbrÀuche jetzt nur noch bei 4K/144Hz gemessen? Unterscheiden sich FullHD und WQHD dazu oder ist das VerhÀltnis gleich?
Bis jetzt haben wir ausschließlich 4K60 gemessen, ab sofort werden es 4K60 und 4K144 sein.
Fallout667 schrieb:
Genau das haben sie doch hier im Test gemacht. Wie Wolfgang schreibt wurden die RT Setting reduziert damit auch alle Karten noch spielbare fps abliefern.
Das Ziel ist es nicht, dass alle Grafikkarten irgendwie spielbare FPS abliefern, die meisten aber eben schon. Sonst sieht es finde ich einfach ziemlich schnell blöd aus. Ein Beispiel davon ist Cyberpunk 2077 mit RT.

Mit Vollgas hat in Ultra HD selbst die RTX 4090 noch nicht einmal 35 FPS. Selbst in WQHD schafft einzig und alleine die RTX 4090 knapp 60 FPS, die RTX 4080 hat gerade einmal 49 FPS. Wie gesagt in WQHD. Ja, Cyberpunk 2077 ist das Extrem-Beispiel, doch sieht man daran gut, warum wir das machen.
SuperHeinz schrieb:
Anhang anzeigen 1358299

In den CPU-Test sind beide Games aber ebenfalls nicht vorhanden. Dabei wĂ€ren sie, dieser Argumentation hier folgend, fĂŒr einen aussagekrĂ€ftigen CPU-Test ja regelrecht prĂ€destiniert.
Zuletzt haben wir in CPU-Tests immer mal versucht Anno 1800 zu benchen, was aber wirklich nicht einfach ist (die Bevölkerung spawnt Minuten lang...was macht mann da am besten?). Und der FlightSim bleibt eben auch bei CPU-tests sehr umstÀndlich.
Angiesan schrieb:
Ich wĂŒrde da noch mal drĂŒber nachdenken, ansonsten wie schon oben geschrieben, toller Test.
Zu dem Thema kann es gerne weiter Feedback geben, mehr Stimmen sind immer gern gesehen. Doch wenn wir die Details zum Beispiel nicht reduzieren, gibt es immer wieder und wieder stimmen die sich beschweren, dass quasi keine Hardware das Spiel darstellen kann. Irgend einen Tot muss man da dann eben sterben.
Linmoum schrieb:
Mir fehlt einzig DLSS/FSR2 und vor allem FG. Auch, wenn die ĂŒblichen wieder ihr "Bildverschlimmbesserer"-Mantra auspacken und einem das Gegenteil einreden wollen.
DLSS 2 und FSR 2 gehören standardmĂ€ĂŸig zum neuen Testparcours, keine Sorge. Die sind nur in der Vorstellung weggefallen, da das dann eben noch mehr Zahlen wĂ€ren, aber es nichts spannendes, neues geben wĂŒrde. Bei den einzelnen Kartentests ist Upsampling zumindest bei den schnellen Grafikkarten mit dabei und bei RTX 4000 auch FG.
 
  • GefĂ€llt mir
Reaktionen: Redundanz, AI94, Rockstar85 und 3 andere
Multivac schrieb:
Nv hat auch ein idle problem bei 10b farbtiefe. von 15w auf 30w bei mir.
Das ist zweifelsohne nicht optimal, aber schon ne ganz andere Liga als von 15 auf ĂŒber 100 :D
Mit 10 Bit Farbiefe reicht es auf RDNA 3 ĂŒbrigens auch oft aus, um auch bei Ultra HD 60 Hz den DPM-State mit den 100 Watt zu triggern.
 
  • GefĂ€llt mir
Reaktionen: MrHeisenberg, AI94, Rockstar85 und 5 andere
Wolfgang schrieb:
Ein Beispiel davon ist Cyberpunk 2077 mit RT.
Schon The Witcher 3 (+RT) zeigt eine ziemlich einseitige Optimierung des Spiels auf einen Chipentwickler/-sponsor, Cyberpunk 2077 ist m.E. mit der absurden RT-PT Version ueberhaupt nicht repraesentativ und wuerde damit das Gesamtbild als Einzelspiel sehr deutlich verzerren.

So gesehen begruesse ich ausdruecklich, dass diese Cyberpunk RT-PT Demo fuer aktuelle nVidia High-End-Grafikkarten ab 1100 Euro aufwaerts nicht mit in den Parcours aufgenommen wurde, denn das haette man vielen (hier) nicht vermitteln koennen.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Redundanz, Orok91, Tzk und 6 andere
Seit Jahren wĂŒrde ich mir wĂŒnschen dass auch zumindest ein paar Ă€ltere Grafikkarten mit aufgenommen werden, denn die meisten werden eher nicht von einer Karte auf die nĂ€chste Generation upgraden sondern warscheinlich 1-2 Generationen auslassen. Das wĂŒrde helfen die Ergebnisse in Relation zur eigenen zu setzen, auch was Treiberoptimierungen bei neueren Gens im Vergleich zu Ă€lteren angeht
 
  • GefĂ€llt mir
Reaktionen: mike2105, TechFunk und Klever
Ich kann mit solchen Benchmarks generell wenig anfangen, weil wenn ich eine Wand im Spiel anschaue und mir 80 FPS angezeigt werden und zwei Meter daneben die völlig identische Wand meine FPS halbiert, dann ist das nicht besonders aussagekrÀftig. Und mit irgendwelchen gesponserten Titeln oder Konsolen-Ports kann ich noch weniger anfangen. Leider ist, dass die RealitÀt und wird deswegen auch getestet.
 
ZurĂŒck
Oben