Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Grafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours
Matthew1992
Cadet 2nd Year
- Registriert
- Okt. 2015
- Beiträge
- 20
Logo, mir geht ein Licht auf. Waren die Finger wieder schneller als der Kopp, DankeJan schrieb:Natürlich. :-)
Karte 1: 100 FPS
Karte 2: 125 FPS
Karte 2 ist 25 Prozent schneller als Karte 1 (25 FPS mehr sind 25 Prozent von 100).
Karte 1 ist 20 Prozent langsamer als Karte 2 (25 FPS weniger sind 20 Prozent von 125).
- Registriert
- Nov. 2002
- Beiträge
- 8.994
Nein, sondern sinnvoll von mir ausgewählt.BloodGod schrieb:„und darüber hinaus nutzt die Redaktion nicht mehr durchweg die maximale Detailstufe“
Welche Detailstufe wird den nun genutzt bei RT im Parcour? Eine völlig Willkürliche? Wird das ausgewürfelt?
Und hier stehen die Details:
https://www.computerbase.de/artikel...t_sich_fuer_alle_aktuellen_gaminggrafikkarten
Angiesan
Ensign
- Registriert
- Mai 2005
- Beiträge
- 215
Tatsache, hatte mich noch gewundert und hatte das auf meinen Monitorwechsel geschoben und die damit etwas höhere Auflösung. Da der neue aber HDR unterstützt wird wenn man es im Windows einschaltet automatisch 10Bit Farbtiefe eingestellt und der Verbrauch geht von 15-16 Watt auf 20-22 Watt hoch. Lasst sich gut reproduzieren wenn man HDR an und ausschaltet. (Für die, die es vielleicht nicht wissen, das geht ganz einfach auch mit Win-Taste+Links ALT+B).Multivac schrieb:Nv hat auch ein idle problem bei 10b farbtiefe. von 15w auf 30w bei mir.
Couch-Potatoe
Ensign
- Registriert
- Apr. 2023
- Beiträge
- 211
Was man beim P/L Diagramm sehr schön sieht: Es gibt eigentlich keine echten Schnäppchen mehr. Fast alle Karten sind was P/L angeht ungefähr da, wo sie sein müssten. Und die Karten am oberen Ende sind eher zu teuer. Ausnahme ist eigentlich nur die Arc 750 (hat halt die schlechtesten Treiber) und im Moment auch die 3070, aber die will eben auch keiner mehr kaufen wegen dem knappen VRam.
Alle andere Karten sortieren sich sehr eng um den Durchschnitt ein.
Das wird dann bei den neuen Karten auch so werden.
Alle andere Karten sortieren sich sehr eng um den Durchschnitt ein.
Das wird dann bei den neuen Karten auch so werden.
- Registriert
- Apr. 2005
- Beiträge
- 5.167
Hab eine 7900XT mit einem Acer XB273KGP (Adaptiv Sync bzw GSync kompatibel) und einem LG 27UL500W (AMD Freesync).
Sind beide Monitore an der Grafikkarte mit 3840x2160 @ 60Hz, liegt der Verbrauch bei ~15-25W im "idle" egal ob Adaptiv Sync aktiv ist oder nicht.
Sobald ich aber GPU-Z starte, geht der Verbrauch schonmal direkt auf 40-50W hoch, weil der VRAM dann dauerhaft mit 909Mhz taktet, warum auch immer, bei HWinfo64 nicht.
Stelle ich jetzt den Acer auf 120Hz, geht der Verbrauch auch auf ~70-85W hoch, da der VRAM direkt auf 2500Mhz springt, wenn vorher Adaptiv Sync deaktiviert war.
Aktiviere ich nun Adaptiv Sync vom Acer wieder, sinkt der Verbrauch auf ~25-35W, egal ob Freesync vom LG an oder aus ist, der kann aber eh keine 120Hz.
144Hz soll mein Acer auch irgendwie können, vllt ist das 3m Kabel zu schlecht dafür, aber sobald ich die 144Hz im Monitor "aktiviere" wird VRR deaktiviert, welches aber notwendig ist um den Verbrauch niedrig zu halten.
Sind beide Monitore an der Grafikkarte mit 3840x2160 @ 60Hz, liegt der Verbrauch bei ~15-25W im "idle" egal ob Adaptiv Sync aktiv ist oder nicht.
Sobald ich aber GPU-Z starte, geht der Verbrauch schonmal direkt auf 40-50W hoch, weil der VRAM dann dauerhaft mit 909Mhz taktet, warum auch immer, bei HWinfo64 nicht.
Stelle ich jetzt den Acer auf 120Hz, geht der Verbrauch auch auf ~70-85W hoch, da der VRAM direkt auf 2500Mhz springt, wenn vorher Adaptiv Sync deaktiviert war.
Aktiviere ich nun Adaptiv Sync vom Acer wieder, sinkt der Verbrauch auf ~25-35W, egal ob Freesync vom LG an oder aus ist, der kann aber eh keine 120Hz.
144Hz soll mein Acer auch irgendwie können, vllt ist das 3m Kabel zu schlecht dafür, aber sobald ich die 144Hz im Monitor "aktiviere" wird VRR deaktiviert, welches aber notwendig ist um den Verbrauch niedrig zu halten.
Anhänge
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.052
Danke für eine aktuelle Übersicht.
Bin froh, dass ich aktuell keine neue Grafikkarte brauche. Wirklich toll ist keine der Karten. Mit Ausnahme der 4090 vielleicht. Entweder sind sie völlig daneben bepreist, für den Mehrwert, den sie zur alten Generationen bieten, haben zu wenig Vram oder andere teils massive Probleme wie den idle verbrauch.
Die 4080 und 4090 sind rein von der Hardware runde Karten, aber ziemlich überteuert. Zumindest die 4080. Die 4090... auch teuer, aber die kann den Premiumaufschlag als unangefochten schnellste Karte immerhin als einzige rechtfertigen und ist inflationsbereinig nicht stärker überteuert, als es eine 2080Ti damals war.
Hoffentlich gibt es in der nächsten generation wieder etwas rundere Produkte und hoffentlich bekommt AMD endlich die Probleme mit dem Stromverbrauch gelöst. Nervt mich jetzt schon, dass die 6800XT im Idle unnötig viel strom verbrät.
Wenn AMD das hinbekommt, wäre die 7900XTX auf einen Schlag um einiges attraktiver. Ich hoffe einfach mal, dass die nächste Generation bei beiden runder wird.
Bin froh, dass ich aktuell keine neue Grafikkarte brauche. Wirklich toll ist keine der Karten. Mit Ausnahme der 4090 vielleicht. Entweder sind sie völlig daneben bepreist, für den Mehrwert, den sie zur alten Generationen bieten, haben zu wenig Vram oder andere teils massive Probleme wie den idle verbrauch.
Die 4080 und 4090 sind rein von der Hardware runde Karten, aber ziemlich überteuert. Zumindest die 4080. Die 4090... auch teuer, aber die kann den Premiumaufschlag als unangefochten schnellste Karte immerhin als einzige rechtfertigen und ist inflationsbereinig nicht stärker überteuert, als es eine 2080Ti damals war.
Hoffentlich gibt es in der nächsten generation wieder etwas rundere Produkte und hoffentlich bekommt AMD endlich die Probleme mit dem Stromverbrauch gelöst. Nervt mich jetzt schon, dass die 6800XT im Idle unnötig viel strom verbrät.
Wenn AMD das hinbekommt, wäre die 7900XTX auf einen Schlag um einiges attraktiver. Ich hoffe einfach mal, dass die nächste Generation bei beiden runder wird.
Zuletzt bearbeitet:
BloodGod
Lt. Commander
- Registriert
- März 2023
- Beiträge
- 1.878
Wolfgang schrieb:Nein, sondern sinnvoll von mir ausgewählt.
Und hier stehen die Details:
https://www.computerbase.de/artikel...t_sich_fuer_alle_aktuellen_gaminggrafikkarten
Hm ok, habe ich beim kurzen überliegen glatt übersehen, aber wirklich gut finde ich das Verfahren nicht 👎
Man sollte schon überall Max nehmen und dann mit den Ergebnissen eben leben können, selbst wenn es dann einstellige FPS sind, so what. Truth matters!
Ist dann auch viel besser vergleichbar mit anderen Testseiten, so kann man euch nicht als Referenz empfehlen, da viel zu individuell/willkürlich gestaltet und somit nur sehr bedingt aussagefähig…
Das Stimmt, das ist super nervig. Liegt wohl am Chiplet Design oder den Broken Treiber. Momentan würde ich RDNA3 auch nicht kaufen, auch wenn die Leistung scheinbar da ist.Nikon71 schrieb:RDNA3 ist und bleibt in der Generation ein Fail.
Das Problem mit dem Stromverbrauch bei 144 Mhz-Monitoren hatte ich auch.
Wird wahrscheinlich nie behoben werden.
Dazu Treiberprobleme bei einigen Spielen und der hohen Stromverbrauch insgesamt.
Division 2 (Beim Laufen durch die Abwasserkanäle ruckelt es wie die Seuche).
Nioh 2 (Teilweise extremes Stuttering)
Aus dem Grund bin ich nach 6900 XT, 6950 XT und 7900 XTX wieder bei NV.
Danke für den Test.
Mag sein das die aktuellen Nvidia Karten OK sind. Trotzdem haben die alle samt bis auf die RTX 4080 zu wenig Speicher in ihrer Preisklasse. Ich hätte keine Lust nach ein paar Jahren die Karte zu tauschen, weil der Speicher überläuft ! Leider ist es immer das gleiche mit Nvidia. Was nützt es dir wenn die Karten doch so toll in Raytracing sind, aber der Speicher voll läuft ! Nichts.
Also wenn sich eine Nvidia Karte kauft, muß sich das gut überlegen und Zweifel später auf Raytracing und CO verzichten oder runterschrauben. Selten war es so schwer sich zu entscheiden finde ich.
W
w0wka
Gast
Gute Arbeit. Das hat sicherlich sehr viel Zeit und Mühe gekostet. Und trotzdem meckern noch Leute, weil da Grafikkarte XY nicht vertreten ist.
Shaav
Fleet Admiral
- Registriert
- Okt. 2009
- Beiträge
- 12.116
Moin,
meiner Meinung nach fehlen bei der P/L-Betrachtung zum einen die Betriebskosten (höherer Stromverbrauch führt zu einem schlechteren P/L-Verhältnis), und zum anderen welche Grafikkarte bereits vorhanden ist.
Ich habe mir mal die Mühe gemacht und das für mich verformet und teilweise schon automatisiert (einholen des aktuellen Preises von Geizhals). Das ganze sieht dann so aus:
Wenn ihr Lust habt mit mir an einer besseren Version zu arbeiten, bei der jeder Nutzer seine eigenen Wert angeben kann und so individuell das beste P/L-Verhältnis berechnet wird, lasst es mich wissen. Ich habe Bock auf das Thema.
meiner Meinung nach fehlen bei der P/L-Betrachtung zum einen die Betriebskosten (höherer Stromverbrauch führt zu einem schlechteren P/L-Verhältnis), und zum anderen welche Grafikkarte bereits vorhanden ist.
Ich habe mir mal die Mühe gemacht und das für mich verformet und teilweise schon automatisiert (einholen des aktuellen Preises von Geizhals). Das ganze sieht dann so aus:
Wenn ihr Lust habt mit mir an einer besseren Version zu arbeiten, bei der jeder Nutzer seine eigenen Wert angeben kann und so individuell das beste P/L-Verhältnis berechnet wird, lasst es mich wissen. Ich habe Bock auf das Thema.
Das ist doch dann irgendwie getürkt. Für mich heißt "Abstürzen" entspricht Ergebnis 0 (Null), da 0 FPS geliefert wurden. Anderfalls wäre es für einen Hersteller ja besser, wenn seine Grafikkarte abstürzt, anstatt beispielsweise unterdurchschnittliche 20 FPS in einem Spiel zu liefern, währen die anderen Karten bei 100 FPS sind. Wo ist da die Motivation für den Hersteller die Treiber gegen das Abstürzen zu optimieren?Wolfgang schrieb:Aufgrund der Berechnung des Performanceratings muss aber auch dann ein Ergebnis eingetragen werden und damit die Bestrafung im Rating nicht zu groß ausfällt (die Redaktion strebt 5 Prozent Leistungsverlust im Rating bei einem Absturz an), muss dort ein erfundenes Ergebnis eingetragen werden.
Oder anders ausgedrückt. Der Hersteller optimiert seinen Treiber gegen das Abstürzen, liefert also statt 0 FPS, dann 20 FPS und wird im Gesamtrating dann dafür bestraft, den auf einmal ist er mehr als 5 Prozent im Rating hinten...
Wer ein Performancerating ohne diese Abtürzer haben will, kann die abgestürzten Spiele aus dem Rating nehmen. Dafür müssten die Spiele mit einem entsprechenden Hinweis versehen sein. Oder ihr präsentiert noch ein Rating ohne die betreffenden Spiele, wenn ihr das auf den ersten Blick zeigen wollt, ohne das der User sich das manuell zusammenklicken muss. Oder es gibt ein Rating mit allen Spielen und nur mit Grafikkarten die das geschaft haben und ein zweites Rating, wo die abgestürzten Spiele raus genommen worden sind, dafür aber alle Grafikkarten dabei sind. Kann man alles machen, ist auch alles besser als irgendwelche "Fake-Werte" in das Rating einzutragen.
Zuletzt bearbeitet:
v3locite
Lt. Commander
- Registriert
- März 2019
- Beiträge
- 1.603
"Truth" ist dann welche Erkenntnis genau? Das Spiel XYZ auf allen Karten gleich schlecht läuft, weil z. B. sinnloserweise achtfaches Supersampling aktiv ist?BloodGod schrieb:Man sollte schon überall Max nehmen und dann mit den Ergebnissen eben leben können, selbst wenn es dann einstellige FPS sind, so what. Truth matters!
Bei den Tests geht es doch um eine Vergleichbarkeit der Karten untereinander, die mit jeweils gleichen Einstellungen gewährleistet ist.
Paradox.13te
Captain
- Registriert
- Juli 2009
- Beiträge
- 3.236
@Wolfgang
Es gibt genug Leute die nicht den ganzen Text lesen bzw. einfach gar nicht Wissen welche Einstellung hier vorliegen, sondern sich nur die Balken anschauen.
Somit wird eine Tatsache suggeriert die gar nicht stimmt. Leser die sich sich nicht mit der Materie beschäftigen, werden damit wohl kaum objektiv beraten. Es ist einfach keine Argumentation auf das GeForce-Lager und schnellste Modelle hinzuweisen. Das ist einfach eine faule Ausrede, nicht mehr und nicht weniger.
Die Leute wollen Wissen was die Karte kann und ob diese den Anforderungen gerecht wird.
Spätestens bei der nächsten Kaufberatung hier im Forum wird dann der Test als Quelle zitiert obwohl das einfach nicht stimmt. Die Berater im Forum müssen dann wieder andere Quellen heranziehen, was unnötig Zeit und Energie in Anspruch nimmt.
Mit die größten Unterschiede gibt es bei den Raytracing-Benchmarks, denn hier sind AMD-Grafikkarten nach wie vor den GeForce-Probanden klar unterlegen, aber dennoch näher an den GeForce-Ablegern dran als zuvor. Das hat zweierlei Gründe: In so einigen neuen Games kommen die Radeons gut mit Raytracing zurecht und darüber hinaus nutzt die Redaktion nicht mehr durchweg die maximale Detailstufe, da es dafür auch im GeForce-Lager oft gleich die schnellsten Modelle brauchte
Es gibt genug Leute die nicht den ganzen Text lesen bzw. einfach gar nicht Wissen welche Einstellung hier vorliegen, sondern sich nur die Balken anschauen.
Somit wird eine Tatsache suggeriert die gar nicht stimmt. Leser die sich sich nicht mit der Materie beschäftigen, werden damit wohl kaum objektiv beraten. Es ist einfach keine Argumentation auf das GeForce-Lager und schnellste Modelle hinzuweisen. Das ist einfach eine faule Ausrede, nicht mehr und nicht weniger.
Die Leute wollen Wissen was die Karte kann und ob diese den Anforderungen gerecht wird.
Spätestens bei der nächsten Kaufberatung hier im Forum wird dann der Test als Quelle zitiert obwohl das einfach nicht stimmt. Die Berater im Forum müssen dann wieder andere Quellen heranziehen, was unnötig Zeit und Energie in Anspruch nimmt.
Wanderwisser
Lieutenant
- Registriert
- Jan. 2013
- Beiträge
- 563
Der Idle Verbrauch bei meiner 7900 XT nervt mich auch etwas. An meinem 3440*1440 144hz Monitor bin ich bei 40 bis 50 Watt. Ist zwar nicht so tragisch wie hier, aber trotzdem weitaus mehr als bei meiner vorigen 6700 XT, die irgendwo bei 10 bis 15W lief.
Ich denke aber nachwievor, dass das ein Bug ist und doch zu beheben sein muss. Der Vram läuft einfach immer mit 909 MHz, sobald es mehr als 60hz werden. Egal ob 144, 120 oder auch 100hz. Lustigerweise ändert sich das ganze aber, wenn ich eine custom Auflösung mit 119hz einstelle. Dann taktet der Vram runter und der Verbrauch liegt bei 15 bis 20W. Wie gesagt, bei 100hz taktet er wieder höher. Muss also (für mich) irgend ein Software Problem sein.
Leider kann ich bei einer Custom Auflösung über den Treiber aber nur eine Farbtiefe von 6 bit Einstellen, bzw. ist vor eingestellt und lässt sich nicht ändern, warum auch immer. Daher nutz ich das ganze nicht.
Abgesehen davon bin ich mit der Karte Mega zufrieden
Ich denke aber nachwievor, dass das ein Bug ist und doch zu beheben sein muss. Der Vram läuft einfach immer mit 909 MHz, sobald es mehr als 60hz werden. Egal ob 144, 120 oder auch 100hz. Lustigerweise ändert sich das ganze aber, wenn ich eine custom Auflösung mit 119hz einstelle. Dann taktet der Vram runter und der Verbrauch liegt bei 15 bis 20W. Wie gesagt, bei 100hz taktet er wieder höher. Muss also (für mich) irgend ein Software Problem sein.
Leider kann ich bei einer Custom Auflösung über den Treiber aber nur eine Farbtiefe von 6 bit Einstellen, bzw. ist vor eingestellt und lässt sich nicht ändern, warum auch immer. Daher nutz ich das ganze nicht.
Abgesehen davon bin ich mit der Karte Mega zufrieden
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.267
😂 So erstmal um CB zu verteidigen was bringt ein Test wenn nur die RTX4090 grade so 60 FPS schaft null, desweiteren sollten PC-Spieler doch etwas mehr als nur Balken lesen können.Paradox.13te schrieb:Spätestens bei der nächsten Kaufberatung hier im Forum wird dann der Test als Quelle zitiert obwohl das einfach nicht stimmt. Die Berater im Forum müssen dann wieder andere Quellen heranziehen, was unnötig Zeit und Energie in Anspruch nimmt
Auch bringt es nix wenn die anderen GPUs nur 10-30 FPS schaffen sorry sonst sollte man auf PS5 wechseln macht dass Leben einfacher und die Games sind meistens besser optimiert. 😉
Ergänzung ()
😂 Mein ganzes System verbrät 130Watt in Idle da die Stromspaar gedöns nicht wirklich gut funktioniert was am OC BIOS liegt. 😉Wanderwisser schrieb:Der Idle Verbrauch bei meiner 7900 XT
McTheRipper
Lieutenant
- Registriert
- Okt. 2009
- Beiträge
- 854
Das mit dem Stromverbrauch ist schon interessant, ich habe bei WQHD mit 240Hz grad mal 12W mit meiner 7900XTX.
Dual Monitor mit nem 4K@60hz dazu habe ich 29W zusammen mit meinen WQHD@240Hz.
Keine Ahnung warum das so bei euch so explodiert, hat vielleicht auch mit den Monitoren zu tun?
Dual Monitor mit nem 4K@60hz dazu habe ich 29W zusammen mit meinen WQHD@240Hz.
Keine Ahnung warum das so bei euch so explodiert, hat vielleicht auch mit den Monitoren zu tun?
netzgestaltung
Captain
- Registriert
- Jan. 2020
- Beiträge
- 3.702
wär interessant ob sie das auf dem normalen Linux-Desktop auch machen würde.So zieht die Radeon RX 7900 XTX statt 17 Watt mal eben 104 Watt – auf dem normalen Windows-Desktop
Ähnliche Themen
- Antworten
- 178
- Aufrufe
- 11.547
- Antworten
- 469
- Aufrufe
- 41.596
- Antworten
- 368
- Aufrufe
- 50.894
- Antworten
- 877
- Aufrufe
- 279.080