Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Die Grafikkarten werden in den nächsten Monaten und Jahren mit dem Treiber reifen, wie die 6er Serie auch. Prima!
 
  • Gefällt mir
Reaktionen: Chismon
Dai6oro schrieb:
Der Witz ist ja. Es ist der Monitor der der größte Stromfresser ist weniger das System (vor allem im idle). Beschwerden hier? Fehlanzeigen. Mein Monitor hat ne G Einstufung.

Was verbraucht denn bitte dein Monitor? Bei mir braucht mein System defintiv mehr im Idle. Monitor ~15 Watt, PC ~60 Watt. Selbst mein 55" OLED-TV mit 4k und 120hz verbraucht "nur" um die 70 Watt.
 
Was meinst was so ein Monitor mit HDR und hellen Bildinhalten rausballern kann? Da geht sogar der Lüfter an ;-)
 
Dai6oro schrieb:
Was meinst was so ein Monitor mit HDR und hellen Bildinhalten rausballern kann?
Ich war auch erschrocken, als ich mal nach Monitoren geschaut habe und gesehen habe, was bei HDR im Unterschied zu SDR dort an Verbrauch angegeben ist
 
@Wolfgang Könnt ihr bitte auch mal den Verbrauch mit einem UHD Monitor mit 144 Hz testen? Da wurden von anderen Seiten (z.B. hier) 100 Watt Verbrauch im IDLE (!) gemessen... euer Test mit 60 Hz erzählt leider nur die halbe Wahrheit... und wer sich so eine teure Grafikkarte kauft der würde sicher auch gerne mehr als gammelige 60 Hz haben.

Edit: Ich lese gerade (danke @H1ldegunst), dass euer UHD 144 Hz Monitor auf dem Postweg zu euch ist, hatte nicht alle Kommentare gelesen. Freue mich auf die Testergebnisse!
 
Zuletzt bearbeitet:
@Ayo34
Die meisten verwenden Dual-Monitore zuhause. Der Stromverbrauch steigt bei vielen GPUs enorm im Idle-Betrieb, sieh dir die Tabelle mal an.
 
Nero2019 schrieb:
Der Stromverbrauch steigt bei vielen GPUs enorm, auch im Idle-Betrieb.
Meine alte 6800XT hat das nicht wirklich gejuckt. Hab hier nen 1440p 144Hz und einen 1080p 60Hz Monitor am laufen, egal ob beide Monitore oder nur einer, die Karte war immer bei 7-9W, zumindest nach ein paar Treiber updates, vorher hing sie öfter bei ~35 rum.
Beides natürlich nur TGP Werte, real waren es daher etwas mehr.

Die 4090 liegt aktuell auch bei ca 30W, aber das ist auch die tatsächliche TBP, also bin ich damit ca in der Mitte von der 6800XT wenn sie einen guten Tag hatte und wenn sie einen schlechten Tag hatte^^

Wirklich sparsam waren da nur die GPUs mit HBM Speicher, weil der wirklich immer verlässlich runtergetaktet hat.
 
Ich glaube mischen von Monitoren geht nach hinten los. Selbst innerhalb eines Herstellers macht schon ein anderes Model den Unterschied.

Interessant wären aber immer noch Tests in UWQHD

Zusätzlich wäre interessant was passiert wenn Freesync bzw Radeon Chill mit 60-144Hz aktiviert wird.
Oder bei NVidia entsprechende Software falls es die gibt.
 
chb@ schrieb:
Sachen wie Nvidia Broadcast fehlen zum Beispiel auch komplett.
Sagt wer?

chb@ schrieb:
Dann CUDA, damit verliert AMD noch mehr Kunden.
Es ist zwar richtig, dass CUDA die quasi Standard Schnittstelle in der Industrie für viele Anwendungen ist,
aber dass man ohne das nicht leben könnte ist ja wohl Käse.

https://www.igorslab.de/amd-radeon-...chritt-nach-vorn-und-ein-kleiner-zur-seite/9/
Ergänzung ()

floh667 schrieb:
Ich bin mir zu 100% sicher die Karte könnte auch vp9 problemlos mit der Hälfte des anliegenden RAM takts beschleunigen.

VP9 läuft ausser auf den Intel iGPUs nirgends auf Hardware Decodern, muss also durch die Shader abgearbeitet werden. Ist eh bald Geschichte.
 
Die Karten werden immer besser. Da kommt sicher noch mehr.

Schön, aber:
AMD wäre besser dran, wenn sie solche Themen schon zum Release optimiert haetten.
Sind nämlich die Launchreviews einmal raus, war's das. Wer Monate und Jahre später eine Karte kaufen möchte und Reviews sucht, findet dann die Launchreviews mit den entsprechenden Wertungen und Schwächen seinerzeit, obwohl die vielleicht längst gefixt wurden.
 
modena.ch schrieb:
Was ist denn ein konkurrenzfähiger Fertigungsprozess?
Einer, der mind. 10-20% bessere Performance/Watt erreicht als der aktuelle. Das Konzept mit den Tiles mag ja am Ende kosteneffizienter sein, aber ich hab mal irgendwo gelesen dass das Tiling bei Grafikchips durch die zusätzlichen Schnittstellen und den riesigen Datenmengen, die darüber gehen locker 10% Energieeffizienz kostet. Da die bessere Performance/Watt im High-End Bereich bei Grafikkarten mittlerweile über Sieg oder Niederlage im Konkurrenzkampf entscheidet, bleibt AMD beim derzeitigen Konzept nur die Wahl des besten verfügbaren Fertigungsprozesses..
 
  • Gefällt mir
Reaktionen: DerRico
ShiftyBro schrieb:
Ich finde FPS pro Watt inzwischen echt super wichtig.

... und streichel nachher erstmal die 6800 zuhause.
Haha das kann ich gleich auch mal machen! Gerade mit etwas UV geht die schön effizient zu Werke und für "normale" Ansprüche in WQHD passt die Leistung.

Mal sehen wie viel AMD aus der Hardware der RDNA3 Karten noch holen kann. Schön zu sehen, dass es erste Verbesserungen gibt, aber man darf auch nicht vergessen, dass sich beim Aufbau der GPU sehr viel getan hat und die erste Generation des Chiplet Designs in manchen Punkten hinter der alten Generation zurück bleiben kann.
 
  • Gefällt mir
Reaktionen: ShiftyBro und Czk666
DerRico schrieb:
Richtig ist, dass der 4er ein aufgebohrter 5er ist. Gem.
Nvidia benutzt den 4N-Prozess, was das ist können außen stehende nicht beurteilen.
Dies ist eine Bezeichnung von Nvidia und keine von TSMC!
DerRico schrieb:
TSMC ist der Vorteil der des N4-Prozesses bei der Energieffizienz aber bei satten 22%.
Wenn allgemein von N4 gesprochen wird ist nie klar ob mit N4 der ursprüngliche N4-Prozess gemeint ist, ob man man von einem oder mehreren Prozessen mit "N4" im Namen redet.

TSMC N4 ist eigentlich etwas anderes als der TSMC N4P oder N4X. Die Zahlen die Du nennst beziehen sich auf den TSMC N4P. Zum N4 wurde gibt es AFAIK keine Angaben zu Performance und Power.
Die Zahlen die TSMC nennt, beziehen sich immer auf ein Referenzdesign. Sie können beim einem speziellen Produkt besser oder schlechter sein. Vor allem ist mit dieser Anhabe nie klar wie taktfreudig ein Prozess ist.

Der hauptsächliche Punkt bei N4P in meinen Augen ist die Reduktion der Masken und damit eine Reduktion der Kosten. So wie ich es verstehe ist N4P der neue Standardprozess.

DerRico schrieb:
Das ist nicht doch schon recht erheblich. Und selbst wenn es nur die Hälfte wäre, ist die Differenz schon für einen guten Teil des Unterschieds zwischen den GPUs verantwortlich, zumal ein kleiner Teil ja auch noch in 7nm (mit Fancy Namen) gefertigt wird.
  • Zum Namen
    • N6 ist beim 7 nm Node im Prinzip dasselbe wie N4(P) beim 5 nm Node
    • Auf den MCD befindet sich SRAM was schlecht skaliert und der Memory Controller samt PHY. Die PHY skalieren nicht. Übrigens wird SRAM zwischen dem 5 nm und dem 3 nm Node nicht skalieren.
    • Als Prozessangabe verwendet AMD in letzter Angaben in Nanometer. IMO hat das den Grund, dass es bei 7 nm große Verwirrung gegeben hat welchen Prozess AMD verwendet. Und da AMD sowieso keinen Standardprozess von TSMC verwendet sind Referenzen auf Standard-Prozesse von TSMC sowieso fragwürdig.
  • Zur Effizienz
    • Das eigentliche Problem von RDNA 3 ist, dass Dual Issue nicht den Vorteil bringt, den sich AMD erhofft hat. Und deshalb musste AMD IMO mehr an der Taktschraube drehen, als es für die Effizienz förderlich ist.
    • Wie sehr hier Unterschiede aus den Prozessen reinspielen ist schwer zu beurteilen.

Ich denke es bleibt nichts anderes übrig als das nächste halbe Jahr abzuwarten, wie sich sich die Performance zwischen RDNA und Ada entwickelt. In Bezug auf neue Treiber, in Bezug auf neu erscheinende Spiele. Aber einen Wundertreiber wird es IMO nicht geben und bei bereits veröffentlichten Spiele erwarte ich keine große Verschiebungen mehr.
Meister1982 schrieb:
Meinst du nicht das es der gleiche Prozess ist?
Nein.
Zer0Strat schrieb:
Lachen nicht unbedingt, eher traurig, wenn der Dual Issue Kram nicht mal richtig genutzt wird.
Ich denke schon, dass Dual Issue entsprechend der Möglichkeiten genutzt wird. Auch die große Bandbreite bei den Spielen spricht dafür dass die grundlegenden Anpassungen bereits erfolgt sind.

Es hat eben einen Grund warum AMD die Shaderangabe nicht verdoppelt hat.
Bei der Verwendung von Dual issue gibt es Einschränkungen. Außerdem kann nur ein Teil der Operationen bei Dual Issue verwendet werden. Z. B. kann Dual Issue nicht für Integer verwendet werden.
Novasun schrieb:
Ich hoffe nicht quelloffen - wie sie es in der Vergangenheit gemacht haben. Wieso - dann profitieren auch die alten NV Karten. Nur ist AMD ja blöd - NV macht es nicht um die überteuerten Karten zu verkaufen... Aber AMD...
Sollen das als AMD exklusiv bringen... Aber bis zur 5xxx Gen runter oder gar Vega... Vielleicht fangen dann manche im grünen Lager an nachzudenken....
Das ist das Los dessen der als zweiter kommt und dazu noch einen kleineren Marktanteil hat. Niemand unterstützt die 2. proprietäre Lösung.

AMD macht das nicht Open Source weil sie so gutherzig sind, sondern weil sie es müssen wenn sie Unterstützung für ihre Lösungen haben wollen.
b|ank0r schrieb:
Dazu kommt dann noch die Problematik mit der Vapor Chamber. Zwei drei Monate später und der Launch hätte ganz anders ausgesehen.
Und was hätte ein späterer Launch daran geändert? Dann wäre der Fehler eben zwei drei Monate später aufgefallen.
 
@Dummsday

Sie nutzen ja den besten verfügbaren Prozess.
NV nutzt den N5 Prozess den man 4N (for Nvidia) nennt, weil er wohl leicht angepasst ist.
Und AMD nutzt genauso den N5 Prozess (ziemlich sicher auch angepasst für GPU) und packt sehr viel dichter als NV beim GPU Chiplet bei ähnlichen Taktraten.
Vielleicht kann AMD die Interfaces zu den Speichern bzw zu den Cache und SI Chiplets nicht komplett runterfahren oder diese nicht in allen Bereichen tief genug takten aber das wird die Zukunft zeigen bzw
Treiberupdates. Für ein endgültiges Urteil ist es viel zu früh.
 
modena.ch schrieb:
N4 der optimierte N5 hat aber mit den 4N (for Nvidia) nicht viel zu tun.
Sind zwei paar Schuhe. 4N ist ein für NV optimierter N5, sonst nix.
Das ist aber alles sehr pseudorichtig.

Alles was wir wissen können - ohne tiefere Einsicht in die internen Dokumente - ist das, was TSMC veröffentlicht.
Und das ist eben genau das von mir genannte: Ihr als "N5" vermarkteter Prozess wird ergänzt durch mehrere optimierte N5, die sie N4 nennen, mit den von mir genannten, weil von TSMC so veröffentlichten Vorteilen. Ob der N4N eher dem N4P oder dem 4x (der neueste, für den TSMC wieder Verbesserungen ggü. N4P nennt) entspricht, weiss von uns wohl niemand..

Das Einzige, was wir sicher wissen: N5 und N4 sind nicht gleich. N4 hat eine höhere Transistordichte (sieht man ja schon an den Chips), weniger Stromverbrauch und / oder eine höhere Leistung. In jedem Fall aber ist der Prozess nicht gleich und ein gewisser Anteil von NVs Vorsprung - irgendwas zwischen 10 und 25% - geht nicht auf das Chipdesign sondern eben auf die Chipqualität zurück.
 
Dai6oro schrieb:
Energie Effizienzklasse
Klasse G

noch nie von gehört?

Klasse G sagt einfach überhaupt nichts aus zu der Frage. Was verbraucht der Monitor denn nun? Meiner 15 Watt und das ist deutlich weniger als Idle.
 
modena.ch schrieb:
@Dummsday

Sie nutzen ja den besten verfügbaren Prozess.
NV nutzt den N5 Prozess den man 4N (for Nvidia) nennt, weil er wohl leicht angepasst ist.
Und AMD nutzt genauso den N5 Prozess (ziemlich sicher auch angepasst für GPU) und packt sehr viel dichter als NV beim GPU Chiplet bei ähnlichen Taktraten.
Vielleicht kann AMD die Interfaces zu den Speichern bzw zu den Cache und SI Chiplets nicht komplett runterfahren oder diese nicht in allen Bereichen tief genug takten aber das wird die Zukunft zeigen bzw
Treiberupdates. Für ein endgültiges Urteil ist es viel zu früh.
In einem Jahr dürfte sich auch bei TSMC bei den Prozessen wieder einiges getan haben. Wenn AMD dann noch ein wenig an der Logik des Powermanagements mit den Tiles und den Schnittstellen rumfummelt, dann könnte es vielleicht schon reichen...
 
Zurück
Oben