Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

„und darüber hinaus nutzt die Redaktion nicht mehr durchweg die maximale Detailstufe“

Welche Detailstufe wird den nun genutzt bei RT im Parcour? Eine völlig Willkürliche? Wird das ausgewürfelt?
 
Jan schrieb:
Natürlich. :-)

Karte 1: 100 FPS
Karte 2: 125 FPS

Karte 2 ist 25 Prozent schneller als Karte 1 (25 FPS mehr sind 25 Prozent von 100).
Karte 1 ist 20 Prozent langsamer als Karte 2 (25 FPS weniger sind 20 Prozent von 125).

:)
Logo, mir geht ein Licht auf. Waren die Finger wieder schneller als der Kopp, Danke :D
 
  • Gefällt mir
Reaktionen: Tzk
  • Gefällt mir
Reaktionen: Redundanz, Rockstar85, BrollyLSSJ und 6 andere
Multivac schrieb:
Nv hat auch ein idle problem bei 10b farbtiefe. von 15w auf 30w bei mir.
Tatsache:(, hatte mich noch gewundert und hatte das auf meinen Monitorwechsel geschoben und die damit etwas höhere Auflösung. Da der neue aber HDR unterstützt wird wenn man es im Windows einschaltet automatisch 10Bit Farbtiefe eingestellt und der Verbrauch geht von 15-16 Watt auf 20-22 Watt hoch. Lasst sich gut reproduzieren wenn man HDR an und ausschaltet. (Für die, die es vielleicht nicht wissen, das geht ganz einfach auch mit Win-Taste+Links ALT+B).
 
Was man beim P/L Diagramm sehr schön sieht: Es gibt eigentlich keine echten Schnäppchen mehr. Fast alle Karten sind was P/L angeht ungefähr da, wo sie sein müssten. Und die Karten am oberen Ende sind eher zu teuer. Ausnahme ist eigentlich nur die Arc 750 (hat halt die schlechtesten Treiber) und im Moment auch die 3070, aber die will eben auch keiner mehr kaufen wegen dem knappen VRam.
Alle andere Karten sortieren sich sehr eng um den Durchschnitt ein.
Das wird dann bei den neuen Karten auch so werden.
 
Hab eine 7900XT mit einem Acer XB273KGP (Adaptiv Sync bzw GSync kompatibel) und einem LG 27UL500W (AMD Freesync).

Sind beide Monitore an der Grafikkarte mit 3840x2160 @ 60Hz, liegt der Verbrauch bei ~15-25W im "idle" egal ob Adaptiv Sync aktiv ist oder nicht.

Sobald ich aber GPU-Z starte, geht der Verbrauch schonmal direkt auf 40-50W hoch, weil der VRAM dann dauerhaft mit 909Mhz taktet, warum auch immer, bei HWinfo64 nicht.

Stelle ich jetzt den Acer auf 120Hz, geht der Verbrauch auch auf ~70-85W hoch, da der VRAM direkt auf 2500Mhz springt, wenn vorher Adaptiv Sync deaktiviert war.

Aktiviere
ich nun Adaptiv Sync vom Acer wieder, sinkt der Verbrauch auf ~25-35W, egal ob Freesync vom LG an oder aus ist, der kann aber eh keine 120Hz.

144Hz soll mein Acer auch irgendwie können, vllt ist das 3m Kabel zu schlecht dafür, aber sobald ich die 144Hz im Monitor "aktiviere" wird VRR deaktiviert, welches aber notwendig ist um den Verbrauch niedrig zu halten.
 

Anhänge

  • sync.png
    sync.png
    1 MB · Aufrufe: 163
  • Gefällt mir
Reaktionen: Rockstar85, Cleanor, Belerad und 3 andere
Ganz große Klasse!
Finde ich toll, dass ihr jetzt Intel auch mit aufgenommen habt. Danke Computerbase.de!
Offtopic: hoffentlich kommen die noch in die Nähe der Konkurrenz. Wir brauchen das ganz dringend.
 
  • Gefällt mir
Reaktionen: Klever, konkretor und ErbarmeHesse
Danke für eine aktuelle Übersicht.

Bin froh, dass ich aktuell keine neue Grafikkarte brauche. Wirklich toll ist keine der Karten. Mit Ausnahme der 4090 vielleicht. Entweder sind sie völlig daneben bepreist, für den Mehrwert, den sie zur alten Generationen bieten, haben zu wenig Vram oder andere teils massive Probleme wie den idle verbrauch.

Die 4080 und 4090 sind rein von der Hardware runde Karten, aber ziemlich überteuert. Zumindest die 4080. Die 4090... auch teuer, aber die kann den Premiumaufschlag als unangefochten schnellste Karte immerhin als einzige rechtfertigen und ist inflationsbereinig nicht stärker überteuert, als es eine 2080Ti damals war.

Hoffentlich gibt es in der nächsten generation wieder etwas rundere Produkte und hoffentlich bekommt AMD endlich die Probleme mit dem Stromverbrauch gelöst. Nervt mich jetzt schon, dass die 6800XT im Idle unnötig viel strom verbrät.

Wenn AMD das hinbekommt, wäre die 7900XTX auf einen Schlag um einiges attraktiver. Ich hoffe einfach mal, dass die nächste Generation bei beiden runder wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AI94 und Laphonso
Wolfgang schrieb:
Nein, sondern sinnvoll von mir ausgewählt.
Und hier stehen die Details:
https://www.computerbase.de/artikel...t_sich_fuer_alle_aktuellen_gaminggrafikkarten

Hm ok, habe ich beim kurzen überliegen glatt übersehen, aber wirklich gut finde ich das Verfahren nicht 👎

Man sollte schon überall Max nehmen und dann mit den Ergebnissen eben leben können, selbst wenn es dann einstellige FPS sind, so what. Truth matters!

Ist dann auch viel besser vergleichbar mit anderen Testseiten, so kann man euch nicht als Referenz empfehlen, da viel zu individuell/willkürlich gestaltet und somit nur sehr bedingt aussagefähig…
 
  • Gefällt mir
Reaktionen: AI94, Pro_Bro, MoinWoll und 3 andere
In Zeiten wie diesen, gibt es keine wichtigere Grafik als „FPS pro Watt“
 
  • Gefällt mir
Reaktionen: Tzk
Nikon71 schrieb:
RDNA3 ist und bleibt in der Generation ein Fail.
Das Problem mit dem Stromverbrauch bei 144 Mhz-Monitoren hatte ich auch.
Wird wahrscheinlich nie behoben werden.

Dazu Treiberprobleme bei einigen Spielen und der hohen Stromverbrauch insgesamt.

Division 2 (Beim Laufen durch die Abwasserkanäle ruckelt es wie die Seuche).
Nioh 2 (Teilweise extremes Stuttering)

Aus dem Grund bin ich nach 6900 XT, 6950 XT und 7900 XTX wieder bei NV.

Danke für den Test.
Das Stimmt, das ist super nervig. Liegt wohl am Chiplet Design oder den Broken Treiber. Momentan würde ich RDNA3 auch nicht kaufen, auch wenn die Leistung scheinbar da ist.

Mag sein das die aktuellen Nvidia Karten OK sind. Trotzdem haben die alle samt bis auf die RTX 4080 zu wenig Speicher in ihrer Preisklasse. Ich hätte keine Lust nach ein paar Jahren die Karte zu tauschen, weil der Speicher überläuft ! Leider ist es immer das gleiche mit Nvidia. Was nützt es dir wenn die Karten doch so toll in Raytracing sind, aber der Speicher voll läuft ! Nichts.:)

Also wenn sich eine Nvidia Karte kauft, muß sich das gut überlegen und Zweifel später auf Raytracing und CO verzichten oder runterschrauben. Selten war es so schwer sich zu entscheiden finde ich.
 
Gute Arbeit. Das hat sicherlich sehr viel Zeit und Mühe gekostet. Und trotzdem meckern noch Leute, weil da Grafikkarte XY nicht vertreten ist.
 
  • Gefällt mir
Reaktionen: Recharging
Moin,

meiner Meinung nach fehlen bei der P/L-Betrachtung zum einen die Betriebskosten (höherer Stromverbrauch führt zu einem schlechteren P/L-Verhältnis), und zum anderen welche Grafikkarte bereits vorhanden ist.

Ich habe mir mal die Mühe gemacht und das für mich verformet und teilweise schon automatisiert (einholen des aktuellen Preises von Geizhals). Das ganze sieht dann so aus:

Bildschirmfoto 2023-05-17 um 17.56.00.png


Wenn ihr Lust habt mit mir an einer besseren Version zu arbeiten, bei der jeder Nutzer seine eigenen Wert angeben kann und so individuell das beste P/L-Verhältnis berechnet wird, lasst es mich wissen. Ich habe Bock auf das Thema.
 
  • Gefällt mir
Reaktionen: Rockstar85, Teeschlürfer und No Escape
Wolfgang schrieb:
Aufgrund der Berechnung des Performanceratings muss aber auch dann ein Ergebnis eingetragen werden und damit die Bestrafung im Rating nicht zu groß ausfällt (die Redaktion strebt 5 Prozent Leistungsverlust im Rating bei einem Absturz an), muss dort ein erfundenes Ergebnis eingetragen werden.
Das ist doch dann irgendwie getürkt. Für mich heißt "Abstürzen" entspricht Ergebnis 0 (Null), da 0 FPS geliefert wurden. Anderfalls wäre es für einen Hersteller ja besser, wenn seine Grafikkarte abstürzt, anstatt beispielsweise unterdurchschnittliche 20 FPS in einem Spiel zu liefern, währen die anderen Karten bei 100 FPS sind. Wo ist da die Motivation für den Hersteller die Treiber gegen das Abstürzen zu optimieren?

Oder anders ausgedrückt. Der Hersteller optimiert seinen Treiber gegen das Abstürzen, liefert also statt 0 FPS, dann 20 FPS und wird im Gesamtrating dann dafür bestraft, den auf einmal ist er mehr als 5 Prozent im Rating hinten...

Wer ein Performancerating ohne diese Abtürzer haben will, kann die abgestürzten Spiele aus dem Rating nehmen. Dafür müssten die Spiele mit einem entsprechenden Hinweis versehen sein. Oder ihr präsentiert noch ein Rating ohne die betreffenden Spiele, wenn ihr das auf den ersten Blick zeigen wollt, ohne das der User sich das manuell zusammenklicken muss. Oder es gibt ein Rating mit allen Spielen und nur mit Grafikkarten die das geschaft haben und ein zweites Rating, wo die abgestürzten Spiele raus genommen worden sind, dafür aber alle Grafikkarten dabei sind. Kann man alles machen, ist auch alles besser als irgendwelche "Fake-Werte" in das Rating einzutragen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tzk
BloodGod schrieb:
Man sollte schon überall Max nehmen und dann mit den Ergebnissen eben leben können, selbst wenn es dann einstellige FPS sind, so what. Truth matters!
"Truth" ist dann welche Erkenntnis genau? Das Spiel XYZ auf allen Karten gleich schlecht läuft, weil z. B. sinnloserweise achtfaches Supersampling aktiv ist?

Bei den Tests geht es doch um eine Vergleichbarkeit der Karten untereinander, die mit jeweils gleichen Einstellungen gewährleistet ist.
 
  • Gefällt mir
Reaktionen: MiroPoch, Rockstar85 und PietVanOwl
@Wolfgang
Mit die größten Unterschiede gibt es bei den Raytracing-Benchmarks, denn hier sind AMD-Grafikkarten nach wie vor den GeForce-Probanden klar unterlegen, aber dennoch näher an den GeForce-Ablegern dran als zuvor. Das hat zweierlei Gründe: In so einigen neuen Games kommen die Radeons gut mit Raytracing zurecht und darüber hinaus nutzt die Redaktion nicht mehr durchweg die maximale Detailstufe, da es dafür auch im GeForce-Lager oft gleich die schnellsten Modelle brauchte

Es gibt genug Leute die nicht den ganzen Text lesen bzw. einfach gar nicht Wissen welche Einstellung hier vorliegen, sondern sich nur die Balken anschauen.
Somit wird eine Tatsache suggeriert die gar nicht stimmt. Leser die sich sich nicht mit der Materie beschäftigen, werden damit wohl kaum objektiv beraten. Es ist einfach keine Argumentation auf das GeForce-Lager und schnellste Modelle hinzuweisen. Das ist einfach eine faule Ausrede, nicht mehr und nicht weniger.
Die Leute wollen Wissen was die Karte kann und ob diese den Anforderungen gerecht wird.

Spätestens bei der nächsten Kaufberatung hier im Forum wird dann der Test als Quelle zitiert obwohl das einfach nicht stimmt. Die Berater im Forum müssen dann wieder andere Quellen heranziehen, was unnötig Zeit und Energie in Anspruch nimmt.
 
  • Gefällt mir
Reaktionen: Pro_Bro und MoinWoll
Der Idle Verbrauch bei meiner 7900 XT nervt mich auch etwas. An meinem 3440*1440 144hz Monitor bin ich bei 40 bis 50 Watt. Ist zwar nicht so tragisch wie hier, aber trotzdem weitaus mehr als bei meiner vorigen 6700 XT, die irgendwo bei 10 bis 15W lief.

Ich denke aber nachwievor, dass das ein Bug ist und doch zu beheben sein muss. Der Vram läuft einfach immer mit 909 MHz, sobald es mehr als 60hz werden. Egal ob 144, 120 oder auch 100hz. Lustigerweise ändert sich das ganze aber, wenn ich eine custom Auflösung mit 119hz einstelle. Dann taktet der Vram runter und der Verbrauch liegt bei 15 bis 20W. Wie gesagt, bei 100hz taktet er wieder höher. Muss also (für mich) irgend ein Software Problem sein.

Leider kann ich bei einer Custom Auflösung über den Treiber aber nur eine Farbtiefe von 6 bit Einstellen, bzw. ist vor eingestellt und lässt sich nicht ändern, warum auch immer. Daher nutz ich das ganze nicht.

Abgesehen davon bin ich mit der Karte Mega zufrieden :)
 
  • Gefällt mir
Reaktionen: Redundanz, MiroPoch und Cleanor
Paradox.13te schrieb:
Spätestens bei der nächsten Kaufberatung hier im Forum wird dann der Test als Quelle zitiert obwohl das einfach nicht stimmt. Die Berater im Forum müssen dann wieder andere Quellen heranziehen, was unnötig Zeit und Energie in Anspruch nimmt
😂 So erstmal um CB zu verteidigen was bringt ein Test wenn nur die RTX4090 grade so 60 FPS schaft null, desweiteren sollten PC-Spieler doch etwas mehr als nur Balken lesen können.

Auch bringt es nix wenn die anderen GPUs nur 10-30 FPS schaffen sorry sonst sollte man auf PS5 wechseln macht dass Leben einfacher und die Games sind meistens besser optimiert. 😉
Ergänzung ()

Wanderwisser schrieb:
Der Idle Verbrauch bei meiner 7900 XT
😂 Mein ganzes System verbrät 130Watt in Idle da die Stromspaar gedöns nicht wirklich gut funktioniert was am OC BIOS liegt. 😉
 
  • Gefällt mir
Reaktionen: Redundanz, Rockstar85 und Wanderwisser
Das mit dem Stromverbrauch ist schon interessant, ich habe bei WQHD mit 240Hz grad mal 12W mit meiner 7900XTX.
Dual Monitor mit nem 4K@60hz dazu habe ich 29W zusammen mit meinen WQHD@240Hz.
Keine Ahnung warum das so bei euch so explodiert, hat vielleicht auch mit den Monitoren zu tun?
 
  • Gefällt mir
Reaktionen: Redundanz, MiroPoch und xXDariusXx
So zieht die Radeon RX 7900 XTX statt 17 Watt mal eben 104 Watt – auf dem normalen Windows-Desktop
wär interessant ob sie das auf dem normalen Linux-Desktop auch machen würde.
 
  • Gefällt mir
Reaktionen: konkretor und R4mses
Zurück
Oben