Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGrafikkarten 2023 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours
Dass ein Treiberupdate im Schnitt 10% bessere Performance über alle Spiele und Auflösungen liefert, habe ich weder bei AMD noch Nvidia jemals auch nur ansatzweise erlebt.
Naja vielleicht nicht mit einmal, aber wenn man sich zum Beispiel die 6700xt Release Tests mal anschaut https://www.computerbase.de/2021-03/amd-radeon-rx-6700-xt-test/3/#abschnitt_benchmarks_in_2560__1440
Die 6700xt hat über die letzten 2 Jahre ihren Vorsprung von 7% zur 3060Ti in WQHD komplett verloren.
Bei der 6800xt sind es gar 15% weniger geworden über die letzten 2 Jahre, also im Vergleich zur 3080.
Die 6700xt hat über die letzten 2 Jahre ihren Vorsprung von 7% zur 3060Ti in WQHD komplett verloren.
Bei der 6800xt sind es gar 15% weniger geworden über die letzten 2 Jahre, also im Vergleich zur 3080.
Das liegt m. E. nur zum Teil an einem Nvidia Treiber, der den Treiberoverhead unter DirectX12 reduziert hat. Je nach Auflösung und RT/Raster waren das 1 bis 5% Verbesserung im damaligen Spieleparkour auf einer 3090 Ti, welche von diesem Treiber am meisten profitiert hat:
Der Großteil dieser Veränderung wird m. E. daher kommen, dass Ampere in jeder Leistungklasse mehr Ausführungseinheiten und dafür weniger Takt hat als RDNA2. Je fordernder die Spiele werden, desto besser werden die Ausführungseinheiten ausgelastet, sodass bereits vorhandene Reserven mehr und mehr genutzt werden können. Eine 4090 hat in aktuellen Spielen auch einen größeren Vorsprung ggü. ihren Vorgängern mit weniger Ausführungseinheiten als in 2 Jahre alten oder älteren Spielen. Und das völlig unabhängig vom Treiber.
Wie kommst Du auf die 15% bei 6800XT und 3080? In diesem Test ist die 3080 5% schneller, in dem von Dir verlinkten alten Test war sie 4% langsamer. Das sind also etwas mehr als 9% Unterschied über zwei Jahre mit X Treiberversionen und gleichzeitig durch die fortlaufende Spieleentwicklung verbesserte Auslastung des größeren Chips (3080).
Ergänzung ()
0ldboy schrieb:
Wenn mich mein Gedächtnis nicht täuscht, gab es immer ein großes Treiberupdate zu jeder neuen Architektur, mit mehr Performance und neuen Features.
Klar, es gibt regelmäßig Treiberupdates bei allen Herstellen, aber keines davon hat jemals durch die Bank 10% gebracht (Intel mal ausgenommen). 5% über 2 Jahre mit vielen Treiberupdates gab es bestimmt mal. Aber alles andere ist denke ich eher Wunschdenken.
0ldboy schrieb:
Ich schätze mal, das große Update kommt zur gleichen Zeit wie die Freigabe von FSR 3.0. Und vielleicht wird es nicht 10%, sondern nur 5 von den Treiberanpassungen auf die Architektur,
5% sind natürlich schon wieder etwas ganz anderes als 10%, aber auch hier weiß ich nicht, woher Du dieses Annahme nimmst.
0ldboy schrieb:
aber bei den 7900XTX Übertaktungen auf 3,4 Ghz sehe ich riesiges Potenzial, welches möglicherweise zum kleineren Teil auch ohne zusätzlichen Verbrauch freigeschaltet werden kann, sagen wir mal 5%, und 5+5 gleich 10
Die 3,4GHz wurden mit 700W erreicht, also einer Verdopplung des Verbrauchs. Wie das ein Treiber jemals ansatzweise schaffen soll ohne den Verbrauch zu erhöhen, musst Du mir mal erklären.
0ldboy schrieb:
(ich habe z.B. CS:GO Problemlos mit 3,1 Ghz gespielt ohne große Verbrauchsteigerungen).
Bei CS:GO bist Du mit einer 7900 XTX selbst in 4K komplett im CPU Limit. Wenn die Karte nur zu 50% ausgelastet wird, kann sie natürlich viel höher takten als bei 100% Auslastung, weil das Powerlimit dann nicht mehr erreicht wird. Bringen tut das dann aber nichts. Es ist sogar von Nachteil. Die Karte sollte eigentlich so weit runter takten bis sie wieder einigermaßen ausgelastet wird, um Strom zu sparen.
0ldboy schrieb:
Zudem gibt es jede Woche neue Spiele und neue Spiele liegen RDNA 3 erwiesenermaßen besser von der Performance her, also geht der Trend hier auch Richtung mehr Performance mit der Zeit.
Meinst Du im Vergleich zu RDNA2? Das kann gut sein. Ggü. Nvidia ist aber auch die zukünftige Entwicklung bzgl. des Einsatzes von Raytracing von Bedeutung. Momentan geht der Trend leider, ich denke vor allem bedingt durch die Konsolen mit sehr wenig RT-Leistung, zu RT-Implementierungen die so zusammengestutzt sind, dass man sie auch weglassen könnte. Ich hoffe hier auf eine Zwischengeneration der Konsolen (PS5 Pro und Xbox Series Next) die auf RDNA4 GPUs setzen, welche hoffentlich zu Nvidia aufschließen können, damit die Entwicklung Richtung Pathtracing mal weiter gehen kann und sich nicht nur auf Nvidia-subventionierte Titel oder Mods beschränkt.
0ldboy schrieb:
Zu den Settings im Test würde ich sagen, hier wird mit klugen Settings gebencht. Settings die ein Feature, das sich nur in wenigen Spielen befindet, spielbar machen, auch für Nvidia. Das bessere Performancerating in RT ist teilweise ein Resultat der klügeren Settings, aber teilweise auch ein Resultat der neuen Treiber und neuen Spiele im Parcours.
Was sind "kluge" Settings? Ich spiele Cyberpunk mit maximalen Details inkl. Pathtracing in 4K mit 90 FPS. DLSS, Frame Generation und ausreichend RT-Leistung sei dank. Und das ist das aktuell fordernste Spiel überhaupt. Warum sollte ich hier oder in irgendeinem anderen aktuellen Singleplayer-Spiel die Grafiksettings reduzieren? Welche Settings man nutzen muss, um eine beliebige Ziel-Framerate zu erreichen, ist immer davon abhängig, welche Grafikkarte man benutzt. Mittlerweile ist es in den meisten Fällen auch sinnvoller zuerst FSR oder DLSS Quality zu aktivieren, bevor Settings reduziert werden. Aus diesen Gründen finde ich es auch nicht sinnvoll, dass in einem Test die Grafiksettings reduziert werden, in welchem es um die Performance von Grafikkarten relativ zueinander geht und nicht darum die derzeit optimale Balance zwischen Grafikqualität und FPS zu finden. So erzeugt man künstlich (teilweise) CPU Limits und schlechte Auslastung der Ausführungseinheiten, vor allem bei den stärkeren Karten. Die Aussagekraft des Tests nimmt m. E. dadurch ab. In CPU Tests wird ja, richtigerweise, auch in für die meisten Spieler realitätsfernen Auflösungen gebencht, um ein GPU-Limit so gut es geht auszuschließen und die tatsächliche Leistung der CPUs relativ zueinander zu bestimmen.
Ein Lob geht raus an die computerbase Redaktion für den deutlich verbesserten Benchmarkparcour. Er macht nun deutlich mehr Sinn in Hinblick auf ein möglichst realistisches Nutzerszenario. Ich bin darüber hinaus froh über die verwendete Ryzen-CPU, denn sie spiegelt die weite Verbreitung von AMD-Prozessoren bei Gamern sehr gut wieder - Stichwort: SAM.
Und plötzlich steht RX 7000 deutlich besser dar:
Etwa gibt es nun bis auf den Stromverbrauch oder DLSS 3 keine wirklichen Argumente mehr für eine RTX 4070 Ti. Die RX 7900 XT ist in UHD bei Rasterisierung ca. 10% schneller und bei Raytracing genau gleich auf. Und sie hat bekanntermaßen 20GB VRAM, also ideal für diese Auflösung, auch für die Zukunft.
Und auch der Vorsprung der RTX 4080 zur RX 7900 XTX bei Raytracing beträgt in UHD gerade einmal 8% (Durchschnitt + P1)... Die Radeon ist allerdings günstiger und hat mit 24GB VRAM eine zukunftssichere Speicheraustattung.
Dann liegt es also an dem knappen Speicher...wenn die RTX 4070TI, ohne kastrierte Raytracing-Einstellungen, schneller ist.
Da sag noch einer wenig Speicher ist mies
Zwischen beiden Realitäten kannst Du Dir jetzt dein Ergebnis aussuchen.
Weder wird man, wie bei PCGH, immer max nehmen...noch wird man, wie hier, die Raytracing exakt so weit kastrieren damit es anständig läuft. Das muss ja jeder selber entscheiden mit seiner jeweilligen Karte.
Wenn man aber rein von der Leistung spricht ist PCGH erheblich näher dran.
Etwa gibt es nun bis auf den Stromverbrauch oder DLSS 3 keine wirklichen Argumente mehr für eine RTX 4070 Ti. Die RX 7900 XT ist in UHD bei Rasterisierung ca. 10% schneller und bei Raytracing genau gleich auf. Und sie hat bekanntermaßen 20GB VRAM, also ideal für diese Auflösung, auch für die Zukunft.
Und auch der Vorsprung der RTX 4080 zur RX 7900 XTX bei Raytracing beträgt in UHD gerade einmal 8% (Durchschnitt + P1)... Die Radeon ist allerdings günstiger und hat mit 24GB VRAM eine zukunftssichere Speicheraustattung.
Das stimmt eben nur nicht, da hier einfach die RT Settings komplett runter geschraubt wurden. Die Damit hast du auf einmal bis zu 40% Differenz zum alten Test. Der Test ist komplett nutzlos, die Zeit hätte sich CB echt sparen können.
Wenn ich da bei dem alten High-End RT Test die 4080 als 100% setze dann liegt die 6800XT bei 46% bzw umgekehrt die 6800 XT bei 100% dann ist die 4080 bei 218%.
Im neuen Parcours sind es jetzt 56% bzw 180%. Die fps in Cyberpunk sind von 8 auf 14 hoch, das sind fast 100% mehr. Bei den anderen AMD Karten ist das Bild ähnlich. Die 7900 XTX lag im alten Test 1% hinter der 4070ti in RT jetzt auf einmal 17% davor.
Den Test kann man zur Einordnung der Leistung der Karten komplett vergessen. Das einzige was der Test gebracht hat ist das jetzt hier im Forum fast alle AMD Karten Besitzer glauben AMD hätte super Treiber Arbeit geliefert und ihre Karten hätten alle ordentlich an Leistung zugelegt und wären jetzt gleichauf mit Nvidia.
Wie kommst Du auf die 15% bei 6800XT und 3080? In diesem Test ist die 3080 5% schneller, in dem von Dir verlinkten alten Test war sie 4% langsamer. Das sind also etwas mehr als 9% Unterschied über zwei Jahre mit X Treiberversionen und gleichzeitig durch die fortlaufende Spieleentwicklung verbesserte Auslastung des größeren Chips (3080).
Da hast du recht, habe ich mich verguckt. Wollte damit ja auch nur ausdrücken dass es die nachträglichen Performancegewinne von 10% (bzw. 9) die @0ldboy ansprach tatsächlich gibt, auch wenn es bei Nvidia statt AMD der Fall ist und das ganze über 2 Jahre, aber es ist möglich.
Da hast du recht, habe ich mich verguckt. Wollte damit ja auch nur ausdrücken dass es die nachträglichen Performancegewinne von 10% (bzw. 9) die @0ldboy ansprach tatsächlich gibt, auch wenn es bei Nvidia statt AMD der Fall ist und das ganze über 2 Jahre, aber es ist möglich.
OK, dann bin ich beruhigt, dass ich keine Tomaten auf den Augen hatte.
Allerdings bin ich weiterhin ziemlich überzeugt davon, dass die Verschiebung eher mit der besseren Auslastung der vielen Ausführungseinheiten von Ampere im Vergleich zu RDNA2 bei neueren Spielen zu tun hat, als mit der Treiberentwicklung, auch wenn diese natürlich einen Teil dazu beigetragen haben wird.
Das war meine ich auch der Grund dafür das AMD Karten lange als "Fine Wine" tituliert wurden, der mit der Zeit immer besser wurde. Das war eben zu GCN Zeiten, als AMD mehr und schlechter auszulastende Ausführungseinheiten hatte. Bei Ampere/RDNA2 und Lovelace/RDNA3 ist es jetzt umgekehrt, daher sind vermutlich eher die Nvidia Karten mittlerweile "Fine Wine", wenn man von den, aus Gewinnmaximierungsgründen, künstlich durch die VRAM-Verknappung in der Lebensdauer verkürzten Karten unterhalb der 4090 absieht. Bin daher auch gespannt wo die 7900 XTX in zwei Jahren im Vergleich zur 4090 stehen wird (bei maximalen Settings). Da man mit der 4090 nur selten die 450W erreicht, solange man nicht übertaktet, ist da denke ich noch Potential vorhanden.
Zwischen beiden Realitäten kannst Du Dir jetzt dein Ergebnis aussuchen.
Weder wird man, wie bei PCGH, immer max nehmen...noch wird man, wie hier, die Raytracing exakt so weit kastrieren damit es anständig läuft. Das muss ja jeder selber entscheiden mit seiner jeweilligen Karte.
Vermutlich würde ich mit einer RX 7900 XT genau so spielen, schließlich achte ich bei Raytracing besonders auf die Hardwareeffizienz bzw. auf die Qualität der Implementierung im Spiel. Wenn die Leistung mit RT im Vergleich zur reinen Rasterisierung allzu sehr abfällt, schreite ich ein. Aber das soll natürlich jeder für sich entscheiden, da hast du recht.
Ein Vorteil aber hat der neue Testparcour: er schließt Raytracing und spielbare FPS auch für schwächere GPUs ein, was natürlich deutlich näher an der Realität ist. Ein deutlicher Vorteil gegenüber dem typischen Ansatz RT Ultra, welcher deutlich weiter von der Realität weg ist als RT Niedrig.
DaHell63 schrieb:
Wenn man aber rein von der Leistung spricht ist PCGH erheblich näher dran.
Das stimmt absolut. Aber wie gesagt, spielen werden in der Realität nur die wenigsten mit RT Ultra. Vielleicht sollten sich Hardwaretests eben auf diesen nicht gerade unwichtigen Umstand beziehen. Denn Raytracing hat Rasterisierung bei der Beleuchtung noch lange nicht als Standard abgelöst. Da sind wir noch weit davon entfernt.
Ergänzung ()
DaHell63 schrieb:
Dann liegt es also an dem knappen Speicher...wenn die RTX 4070TI, ohne kastrierte Raytracing-Einstellungen, schneller ist.
Da sag noch einer wenig Speicher ist mies
Das gilt besonders mit Hinblick auf die Zukunft. Raytracing Ultra @4K wird mit 12GB nicht mehr lange gut ausgehen.
Ergänzung ()
Fallout667 schrieb:
Das stimmt eben nur nicht, da hier einfach die RT Settings komplett runter geschraubt wurden. Die Damit hast du auf einmal bis zu 40% Differenz zum alten Test. Der Test ist komplett nutzlos, die Zeit hätte sich CB echt sparen können.
Wenn man das reale Nutzerverhalten einbezieht, dann ist RT Niedrig vermutlich häufiger im Einsatz als RT Ultra. Das macht das neue Testverfahren deutlich praxisrelevanter. Außerdem werden nun endlich auch schwächere GPUs mit einbezogen, was ebenfalls näher an der Realität ist.
Darüber hinaus kann nun endlich SAM genutzt werden und bei RX 7000 arbeitet nicht mehr länger ein Beta-Treiber.
Das Argument kann ich nicht wirklich nachvollziehen. Bisher hat man Leistungstests immer bei max Einstellungen gemacht um eben zu seigen was möglich ist. Was bringt mir da ein angebliches reales Nutzerverhalten.
Wenn man so argumentiert dann verstehe ich nicht wieso dann auf der anderen Seite auf einmal über die 8GB der neuen Karten gemeckert wird. Da könnte man dann ja genauso die Settings runter drehen mit dem Verweis darauf das es ja die meisten Nutzer auch so machen würden und es so viel realistischer sei. Aber da geht es nicht, da sind dann 8 GB auf einmal No-Go. Aber schlechte RT Leistung ist egal weil kann man ja runter drehen. Schlechte Texturen no-go eingeschränkte RT Effekte kein Problem.
OK, da habe ich mit dem Nutzerszenario nicht das beste Argument geliefert. Du hast du schon Recht. Das große Problem mit RT maxed out bei Spielebenchmarks ist, dass in den allermeisten Fällen nur die Flaggschiff-GPUs hier noch einigermaßen flüssig performen. Die Mainstream-GPUs haben da keine Chance. Genau das ist bei reiner Rasterisierung völlig anders, hier scheitert es in der Regel allein an der VRAM-Größe und nicht an der Rechenleistung. Somit sind Testverfahren mit "extremer" Raytracinglast für die Praxis deutlich sinnloser als herkömmliche Rasterisierung mit Ultra-Setting. Dies zeigt letztendlich, dass Raytracing noch lange nicht den selben Stellenwert für Spiele haben sollte als das etablierte Rasterizing. Dafür kostet es einfach überproportional viel Leistung bezogen auf herkömmliche Berechnungsmethoden.
Mich irritiert der immens hohe Idle-Stromverbrauch bei den Intel Arc in euren aktuellen Tests. Ich habe selbst eine A750 und mich erst über den Idle-Verbrauch geärgert, dann aber die Intel-Anleitung benutzt, die ihr selbst schon verlinkt habt. https://www.computerbase.de/2022-10/intel-arc-a770-750-380-verbrauch-leerlauf/
Tatsächlich sinkt der Idle-Verbrauch mit meiner A750 um phänomenale 30 Watt bei FHD - bei 4K "nur" um 24 Watt. (Gemessen mit Strommessgerät und Smartmeter für das Gesamtsystem).
Laut HWInfo idlet die GPU in FHD bei ca. 6W, in 4K bei ca 12 W.
Ich finde es erstaunlich, dass dem Sensorwert 6W dann ja mit euren Messungen fast 30W mehr für die ganze Grafikkarte entsprechen würden...
Dagegen spricht aber auch der Idle-Verbrauch meines Gesamtsystem "an der Steckdose" - knapp 60W für Ryzen 5600X + A750 . Ich hatte früher mit einem 5600G nur mit iGPU idle ca 50W.
Oder benutzt ihr gar nicht eure eigene Anleitung und macht viel Wind um nichts?
Du hast keinen Ultra-HD-Monitor, der Unterschied kann schon daher kommen. 3840x2160 bei 144 Hz sind schon deutlich mehr Pixel pro Sekunde als 3840x1600 bei 120 Hz.
Ich hatte zuvor schon mal in den Linux-MESA-Issuetrackern gelesen, dass einer meinte es kann auch am verwendeten Bildschirm liegen.
Ich habe, inspiriert von dem oben verlinkten Forumbeitrag, mal unter Linux eine ähnliche Methode genutzt. Via "gtf 3840 1600 120" habe ich mir eine Custom-Auflösung mit berechneten Frequenzen ausrechnen lassen und dann mit "xrandr" meinem System beigebracht. Das Ergebnis: Von ~45W im Idle runter auf ~25W. Und genau der Übeltäter "GPU Memory Clock" hat sich auf ein 60Hz-Niveau verabschiedet (vorher etwa 450MHz, jetzt 96MHz). Es wäre also mal einen Versuch Wert zu schauen, ob ihr sowas ggf. auch nachstellen könnt mit einem echten 4K-Bildschirm in eurem Test-Setup.
Ganz blöde Frage, da ich nicht weiß wie die Redaktion das bei älteren Artikeln handhabt:
Wird es ein Update zum Punkt Stromverbrauch geben? Also nur einen kleinen Hinweis, dass das mit Adrenalin 23.12.1 (Dez. 2023) gefixt wurde? Man stolpert ja doch immer wieder über den Artikel und es wäre doch gut wenn zumindest erwähnt würde, dass die "Verbrauchsexplosion" bei RDNA3 behoben wurde. (https://www.techradar.com/computing...-where-some-rdna-3-gpus-guzzle-too-much-power)