Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Chismon schrieb:
Noch mehr propriertaere (nVidia) Features braucht auch wirklich keiner und mit der Begrenzung von DLSS3 nur auf Ada Lovelace Karten ist da auch ein neuer Level erreicht und ich hoffe nur, dass die Generation sich so schlecht verkauft und AMD/RTG doch noch rechtzeitig mit einem quelloffenen FSR3 an den Start gehen, dass aehnlich wie bei G-Sync und Free-Sync sich der von AMD/RTG vertretene offene Standard durchsetzen wird ;).

Naja, dadurch war AMD eben häufig in Zugzwang. Ohne Nvidia hätten wir viele Features auch bei AMD nicht. Zusätzlich ist Nvidia häufig immer etwas voraus. Sei es erst mit GSync, dann mit Reflex, dem Streaming-Bereich oder auch bei der Unterstützung diverser Anwendungen.
 
  • Gefällt mir
Reaktionen: Chismon
Halleluja!! Jetzt bitte noch die X3 Cache Ryzen releasen - und meinem neuen System steht nichts mehr im Wege...
 
Jan schrieb:
Gerade auf dem Postweg zu uns. 700 Euro. Schnapper!

@Wolfgang weiste mich darauf hin, dass es doch "nur" um die 700 Euro sind. ^^
Günstig wäre ein 4k-Moni der OCen auf 165Hz kann.
weil
Demnächst mit FSR3+FG dann aus 80fps schon 160fps werden.
Das ist dann so richtig interessant für den Verbrauch.

Denke mal, wer 80fps nativ schafft ist bei 160fps@FG auch net zuuu laggy.
und
Dann machen auch die kleinen Grakas wieder mehr Sinn. (vermutlich wird schon die 6800 net die 144fps
in 4k nativ schaffen, außer Wolfgang hat ne sehr performante Stelle für den Verbrauchstest)
 
Zuletzt bearbeitet:
Kazuya91 schrieb:
Schade dass AMD diesen Treiber nicht zu Relase schon hatte. Viele werden nur die ersten Reviews nach Launch sehen und dann sich bei Nicht-Gefallen schon ins grüne Lager bewegt haben. Die Effizienzsteigerung durch den Treiber ist schon beachtlich.
AMD hat eigentlich häufig das bessere P/L Verhältnis. Ich denke, dass man mit zusätzlichen Treiber-Programmierern die echt was auf dem Kasten haben, deutlich mehr aus der HW rausholen kann.

Frage mich da immer, warum man ein unfertiges Produkt so in den Markt gibt. Die Wissen doch auch, was getestet wird.
 
Muss echt alpha sein wenn sich da so viel mit Treibern machen lässt. 80watt bei video... Das zieht meine rtx 4090 mit einem 80gold Netzteil in elden ring mit 1440p ultra bei 60fps
 
Ayo34 schrieb:
Einmal wird wohl mehr Leistung benötigt und entsprechend kommt es über ein Limit wo der Takt dann angehoben wird. Beim anderen Codec wird weniger Leistung benötigt und entsprechend wird weniger hoch getaktet.
Kannst mir doch nicht erzählen, dass zwischen den beiden Codecs av1 und vp9 20w Leistung liegen wenn's ums decodieren eines 1080p Videos geht.
Meine rx6700xt die ich davor hatte konnte das auch mit halb so viel Verlustleistung, was man ja auch im Test hier von CB sehen kann.

Aus welchen Gründen auch immer schickt AMD die größeren radeonkarten in einem Hochleistungsmodus beim vp9 codec, bei dem der vram voll hochtaktet und praktisch der gesamte Chip aktiviert wird.
 
  • Gefällt mir
Reaktionen: Volvo480
Memphis@MG schrieb:
gehe ich 99% von aus. denke im compiler hängt noch sehr viel potential und es wird leider zu lange daueren den "mittel guten/schlechten" eindruck der 7k karten wieder zu glätten.
GERADE weil das marketing bei amd seit gut 7-8 monaten sagen wir "bescheiden" agiert
Wovon wir als Kunden vielleicht profitieren könnten.
Technisch sind die Karten ja ohne Zweifel sehr lecker.
Durch diesen Fauxpas seitens AMD könnte durchaus Bewegung in die Preisgestaltung kommen.
Dann könnten wir als Konsument doch günstiger als anfangs gedachtan ordentliche Hardware kommen, auch wenn AMD das nicht gefällt.
Aber wie hat mein Opa schon gesagt ? Wer "A" sagt muss auch "Schloch" sagen.
Niemand hat AMD gezwungen so einen überhasteten Release zu fabrizieren.
Auch hoffe ich, das daraus Lehren gezogen wurden.
 
  • Gefällt mir
Reaktionen: Memphis@MG
trockenerToast schrieb:
ich musste mit verwundern feststellen, dass FPS limits am Verbrauch einer 3080 eigentlich kaum was ändern..
Wenn es noch so ist wie bei der 2080 die ich im Moment habe wird der Verbrauch nur reduziert wenn man das Limit im Treiber also im Nvidia Control Panel einstellt. In Games gestzte Limits ändern nur wenig bis nichts am Verbrauch.
 
floh667 schrieb:
Kannst mir doch nicht erzählen, dass zwischen den beiden Codecs av1 und vp9 20w Leistung liegen wenn's ums decodieren eines 1080p Videos geht.
Meine rx6700xt die ich davor hatte konnte das auch mit halb so viel Verlustleistung, was man ja auch im Test hier von CB sehen kann.

Aus welchen Gründen auch immer schickt AMD die größeren radeonkarten in einem Hochleistungsmodus beim vp9 codec, bei dem der vram voll hochtaktet und praktisch der gesamte Chip aktiviert wird.

Reicht doch wenn bei einem Codec 99% und beim anderen Codec 101% gebraucht wird. Mit 99% bist du unter dem Limit und bei 101% über dem Limit. Entsprechend schaltet die Grafikkarte in den nächsten Mode und verbraucht da 20 Watt mehr.
 
Ayo34 schrieb:
Naja, dadurch war AMD eben häufig in Zugzwang. Ohne Nvidia hätten wir viele Features auch bei AMD nicht. Zusätzlich ist Nvidia häufig immer etwas voraus.
Dass ein Zugzwang entsteht ist sicherlich richtig, aber Mantle und die Mitentwicklung vom HBM Speicher (die sich beide nicht wirklich finanziell ausgezahlt haben fuer AMD) und mit denen man nVidia (auch beim DX12 Nachfolger) voraus war, sind m.E. innovativere Techniken als DLSS und HairWorks, aber gut, darueber kann man streiten.
Ein anderes, aktuelleres Bespiel ist das Chiplet-Design bei dGPUs, bei welchem man auch nVidia (Intel nicht wirklich, da von Koduri damals noch bei AMD/RTG arbeitend urspruenglich erdacht) voraus ist.

Dazu kommt auch, dass einige Entwicklungen wohl auch nicht ganz so gelaufen sind wie angedacht, etwa HBCC, auch wenn der Ansatz durchaus innovativ war und sich die Idee des Infinity Cache (noch etwas wo AMD/RTG nVidia wohl klar voraus ist) daraus entwickelt haben duerfte.

Dass AMD/RTG immer mit offenen (teilweise verbesserten) Standards nachlegen muss, weil nVidia sich mit propriertaeren Standards einen alleinigen, kuenstlichen Wettbewerbsvorteil erschaffen will, ist sicherlich nicht etwas, das fuer nVidia als Unternehmen bzw. deren Kundenpolitik spricht ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .fF
Chismon schrieb:
Noch mehr propriertaere (nVidia) Features braucht auch wirklich keiner und mit der Begrenzung von DLSS3 nur auf Ada Lovelace Karten ist da auch ein neuer Level erreicht und ich hoffe nur, dass die Generation sich so schlecht verkauft und AMD/RTG doch noch rechtzeitig mit einem quelloffenen FSR3 an den Start gehen, dass aehnlich wie bei G-Sync und Free-Sync sich der von AMD/RTG vertretene offene Standard durchsetzen wird ;).

Ich hoffe nicht quelloffen - wie sie es in der Vergangenheit gemacht haben. Wieso - dann profitieren auch die alten NV Karten. Nur ist AMD ja blöd - NV macht es nicht um die überteuerten Karten zu verkaufen... Aber AMD...
Sollen das als AMD exklusiv bringen... Aber bis zur 5xxx Gen runter oder gar Vega... Vielleicht fangen dann manche im grünen Lager an nachzudenken....
 
RyzaTune schrieb:
Muss toll sein eine Gabe zu besitzen durch die Leutes Köpfe zu sehen und zu wissen warum eine negative Stimmung herrscht.

Wozu duch die Köpfe der Leute gucken, es reicht doch die Kommentare unter dem besagten Artikel zu lesen.

Sehr viele Aussagen, dass es AMD anscheinend nicht hinbekommt was am Verbrauch zu drehen, dass es evtl sogar ein Hardwareproblem sein könnte weil sich nach 3 Treibern immer noch nichts getan hat.

Dabei gab es direkt nach Release des 22.12.2 auch schon Videos wo ein geringerer Verbrauch im FPS Limit getestet wurde, das hatte ich hier auch mal angesprochen.
Auf so ein Video hätte ja der Artikel verlinken können mit dem Hinweis, dass sich der Verbrauch auch in Spielen bereits mit dem 22.12.2 verbessert hat und der Aussicht auf einen baldigen CB Test dazu.
 
Novasun schrieb:
Ich hoffe nicht quelloffen - wie sie es in der Vergangenheit gemacht haben. Wieso - dann profitieren auch die alten NV Karten.
Idealerweise quellofen, aber mit zusaeztlich integrierten Vorteilen fuer die RDNA-Architekturen, so wuerde ich das machen und damit wuerde man zwei Fliegen mit einer Klappe schlagen ;).

Die Tatsache, dass AMD/RTG alte nVidia Kaeufer besser unterstuetzt als nVidia selbst, hat doch schon in anderen Faellen dafuer gesorgt, dass einige zu AMD/RTG gewechselt sind.

Exklusive hauseigene/proprietaere Features nur zu entwickeln, ist jedenfalls eher eine schlechte Loesung fuer die Kundschaft, aehnlich der Exklusivspielpolitik bei Konsolen oder Epic.
 
Zuletzt bearbeitet:
kachiri schrieb:
Wenn das nämlich so easy wäre, dass das quasi jeder Chip frisst, würde AMD die wohl direkt so auf dem Markt werfen. Wer nicht?
Nein, das kann jeder mit fast jeder Karte easy, bei den schlechteren muss man halt leider auch etwas am Takt reduzieren. Die Karten werden nunmal nach Leistung beworben und verkauft, der effizient este Betriebspunkt ist bei allen deutlich tiefer.
Meine RX6800 nimmt bei einer Taktgrenze von 2000 MHz z.B. max 150W
 
Ayo34 schrieb:
Reicht doch wenn bei einem Codec 99% und beim anderen Codec 101% gebraucht wird. Mit 99% bist du unter dem Limit und bei 101% über dem Limit. Entsprechend schaltet die Grafikkarte in den nächsten Mode und verbraucht da 20 Watt mehr.
Dann wäre wohl AMD gut darin beraten, mehr Abstufungen im Treiber zu hinterlegen damit die Karte nicht nur zwischen 50% und 100% unterscheidet wenn's ums decodieren von vp9 Videos geht.
 
Mcr-King schrieb:
Wie gesagt ich habe eine PS5 und eine Switch der PC ist nur noch für MS FS und zum Arbeiten da. 😉
Hab auch ne PS5 für die exclusives, muss sich aber toll anfühlen mit der Switch in 20FPs und 720p - 1080p, kann ja nur noch besser werden in Zukunft. O.o

Auch geil wie du alle in einen Topf wirfst und behauptest ich würde jeden Käse kaufen, sehr erwachsen.
 
Also wenn ich mir den Verbauch zu meiner 6800 mit Limit anschaue... Oha
 
  • Gefällt mir
Reaktionen: fox40phil
Bengart schrieb:
Denke AMD hat hier den besten Kompromiss gefunden. Es handelt sich hier ja nur um Performanceverbesserung. Die Karte war zu Release ja nutzbar.
Hmm!? 🤔 Wenn der beste Kompromiss daraus besteht, den Produktstart ordentlich zu versemmeln und mit negativer Publicity zu versehen hast du absolut Recht! 😉

Ich antworte mal mit Zitaten:
DerRico schrieb:
AMD: Saudämlich den Launch versemmelt, der schlechte Eindruck geht nicht weg, wer immer die Karte kaufen will, googled den Test, nicht die späteren Ergänzungen zu den Treibern.
Zer0Strat schrieb:
Es geht in die richtige Richtung, aber der Imageschaden durch den schlechten Launch bleibt erstmal.
Kazuya91 schrieb:
Schade dass AMD diesen Treiber nicht zu Relase schon hatte. Viele werden nur die ersten Reviews nach Launch sehen und dann sich bei Nicht-Gefallen schon ins grüne Lager bewegt haben.
Zer0Strat schrieb:
Der Launch kam viel zu früh.
Dazu kommt dann noch die Problematik mit der Vapor Chamber. Zwei drei Monate später und der Launch hätte ganz anders ausgesehen.

CDLABSRadonP... schrieb:
Entsprechend ist es für sie wertvoller, Praxiserfahrungen machen (zu lassen) und einige Enthusiasten als Betatester zu verwenden.
Bitte was? „Das Produkt reift beim (Enthusiasten) Kunden“ soll gut sein? Antworte ich jetzt nicht weiter drauf.

Wolfgang schrieb:
Aktuell hab ich im Büro nur Full HD 360 Hz
Fände ich auch mal interessant, wenn ihr Monitore mit hoher Hz Zahl (FHD/WQHD) mit aufnehmen könntet. Schwerpunkt Idle und geringe Last. Für mich am interessantesten sind die Werte mit FPS Limiter, da - wie ich finde - Effizienz über allem steht. Was inzwischen für viele gilt. Aber bei AMD anscheinend noch nicht angekommen ist - anders kann ich mir nicht erklären das nur einige Wochen später ein Treiber rauskommt womit sich dies eindeutig bessert, dieser zum Release aber fehlt.
 
  • Gefällt mir
Reaktionen: RyzaTune
Zurück
Oben