Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Leistungsaufnahme im Ein-Zustand 34 W und kann bis 200 Watt peaken.
Im Übrigen braucht die GSync Variante wegen dem Modul mehr (und benötigt 2 Lüfter):
Leistungsaufnahme im Ein-Zustand 42.3 W

Aber wie gesagt das interessiert offenbar keinen.

Aber das wundert doch nicht?! beim Smartphone ist auch das Display der Energiefresser, das ist am PC nicht anders besonders bei idle oder niedriger Last.
 
modena.ch schrieb:
VP9 läuft ausser auf den Intel iGPUs nirgends auf Hardware Decodern, muss also durch die Shader abgearbeitet werden. Ist eh bald Geschichte
Danke für die Info, auch aus deinem anderen Zitat. Das wusste ich nicht.
Dann hoffe ich Mal dass YT bald gänzlich auf av1 umsattelt und nicht immer nur hier und da Mal Videos in av1 encodiert werden.
 
  • Gefällt mir
Reaktionen: Teeschlürfer
ETI1120 schrieb:
Und was hätte ein späterer Launch daran geändert? Dann wäre der Fehler eben zwei drei Monate später aufgefallen.
Das kann aber muss nicht sein. Wenn der Produktionsfehler in Zusammenhang mit dem festgelegten Launchtermin gestanden hat, dann besteht durchaus die Möglichkeit das es ein paar Monate später nie dazu gekommen wäre. Aber das ist dann eine andere Zeitlinie, in unserer ist die Sache gelaufen 🙋‍♂️😁
Ergänzung ()

CDLABSRadonP... schrieb:
Für AMD wertvoller.
Für AMD wertvoller sind Kunden, die von ihren Produkten überzeugt sind und diese dann auch kaufen und nicht abgeschreckt zu Nvidia oder gar nichts greifen. Von all dem Social Media Kram und der Mundpropaganda rede ich da noch gar nicht. Negative Publicity ist hier mal ausnahmsweise nicht besser als gar keine.
 
Esenel schrieb:
Nehmt in den Idle Test bitte einen 4k 144Hz Monitor mit auf. Bei zweien davon wirds natürlich nicht besser.
Dort zeigte sich zumindest nach Release ein Verbrauch von 105W+ im Idle.
@Wolfgang
Und bitte auch Nvidia Karten mit in den Vergleich nehmen. Das findet man nirgends!
 
Czk666 schrieb:
Keine Ahnung was du angestellt hast. Meine 6800 läuft seit 2 Jahren einwandfrei.

Nicht was ICH angestellt habe sondern AMD!
Wenn du es so genau wissen willst:

1. Mein AMD FreeSync PREMIUM Monitor läuft NICHT flickerfrei mit Freesync (eine Zumutung) - mit NVIDIA Gsync alles Butterweich am rennen
2. Vertikale Sync ging nicht per Treiber in Spielen anzuschalten mit Tripple Buffering
3. Man muss Frame Limiter einsetzen was zu Microrucklern führt bei AMD
4. Stromverbrauch unter aller Sau im idle
5. der Hauseigene Benchmark bei AMD im Treiber funktioniert nicht fehlerfrei, taktet immer wieder die Karte runter nach paar Sekunden und dann wieder hoch

Und das bei einer fast 1000€-Karte... hust

Paar Wochen nach dem ich die Karten alle zurück geschickt habe, wurden ein paar Fehler per Treiber korrigiert aber das muss halt VOR Release und nicht Wochen später passieren, daher kaufe ich nun wieder NVIDIA.

Und vor etlichen Jahren mit der 6950 von AMD hatte ich dermaßen viele Bluescreens (Auch verschiedene Custom Karten), was wohl an Motherboard und kompatbilitätsproblemen mit den AMD Karten am Ende lag, sowas bleibt halt im Kopf dann bei mir hängen, mit nvidia hatte ich noch nie solche heftigen Probleme wie mit AMD Karten.

Dann jetzt noch das Hitze und Ausfall-Problem der neuen Serie bei AMD und du willst mir erzählen die Karten sind gut ? Sorry, nein sind sie nicht.

Und AMD hat NVIDIA noch wegen dem Kabelproblem ausgelacht per Twitter und nun haben sie selbst eine komplette Serie verbockt wegen der Kühlung auf den Karten, nene, AMD brauch noch lange um auf dem Stand von NVIDIA zu sein.

Ich wette wenn ich an deinem Rechner spielen "würde", würde mir zu mindestens Microruckler auffallen. Vielleicht merkst du es selbst nicht mal.... aber das ist nen anderes Thema.
 
Zuletzt bearbeitet:
Pltk schrieb:
@Wolfgang Könnt ihr bitte auch mal den Verbrauch mit einem UHD Monitor mit 144 Hz testen? Da wurden von anderen Seiten (z.B. hier) 100 Watt Verbrauch im IDLE (!) gemessen... euer Test mit 60 Hz erzählt leider nur die halbe Wahrheit... und wer sich so eine teure Grafikkarte kauft der würde sicher auch gerne mehr als gammelige 60 Hz haben.

Edit: Ich lese gerade (danke @H1ldegunst), dass euer UHD 144 Hz Monitor auf dem Postweg zu euch ist, hatte nicht alle Kommentare gelesen. Freue mich auf die Testergebnisse!
Hallo,

haben nen Dell 4k@144 Hz!

Am Anfang hat das ding 60-80 Watt angezeigt.
4k@120 war bei ~50Watt.

Allerdings,
wenn man "Adaptive Sync" (Freesync) anmacht gehts runter auf 18-32Watt beim Idle/Surfen.
Mach ich nichts (18Watt) aber schreibe ich dir, so steht da 26.

Hoffe das hilft dir weiter. MfG
 
  • Gefällt mir
Reaktionen: McTheRipper und Pltk
b|ank0r schrieb:
Für AMD wertvoller sind Kunden, die von ihren Produkten überzeugt sind und diese dann auch kaufen und nicht abgeschreckt zu Nvidia oder gar nichts greifen. Von all dem Social Media Kram und der Mundpropaganda rede ich da noch gar nicht. Negative Publicity ist hier mal ausnahmsweise nicht besser als gar keine.
Lies doch bitte den Originalkontext und lies insbesondere nichts herein, was da nicht vorkommt.
CDLABSRadonP... schrieb:
Ich gehe davon aus, dass es weniger um das Weihnachtsgeschäft geht (es wird doch ohnehin weiterhin alles aus den Händen gerissen) als dass Navi 31 halt fertig ist und bereits produziert wurde, während an Navi 32 und möglichen V-Cache-Varianten noch gebastelt wird. Entsprechend ist es für sie wertvoller, Praxiserfahrungen machen (zu lassen) und einige Enthusiasten als Betatester zu verwenden.
Ich biete nur eine Alternativinterpretation (zu der Idee, dass es um das Weihnachtsgeschäft ging) an, warum AMD das gemacht haben könnte. Ich nehme keine Wertung bzgl. Frühes Release vs. Spätes Release vor, ich vergleiche nur Weihnachtsgeschäftstheorie mit meinem Gegenstück, der Praxiserfahrungstheorie. Zu deinem Thema äußere ich mich nicht. (und bin obendrein deiner Meinung, aber das tut nichts zur Sache!)
 
PTS schrieb:
Nicht was ICH angestellt habe sondern AMD!
Wenn du es so genau wissen willst:

1. Mein AMD FreeSync PREMIUM Monitor läuft NICHT flickerfrei mit Freesync (eine Zumutung) - mit NVIDIA Gsync alles Butterweich am rennen
2. Vertikale Sync ging nicht per Treiber in Spielen anzuschalten mit Tripple Buffering
3. Man musste Frame Limiter einsetzen was zu Microrucklern führte bei AMD
4. Stromverbrauch unter aller Sau im idle
5. der Hauseigene Benchmark bei AMD im Treiber funktioniert nicht fehlerfrei, taktet immer wieder die Karte runter nach paar Sekunden und dann wieder hoch

Und das bei einer fast 1000€-Karte... hust

Paar Wochen nach dem ich die Karten alle zurück geschickt habe, wurden ein paar Fehler per Treiber korrigiert aber das muss halt VOR Release und nicht Wochen später passieren, daher kaufe ich nun wieder NVIDIA.

Und vor etlichen Jahren mit der 6950 von AMD hatte ich dermaßen viele Bluescreens (Auch verschiedene Custom Karten), was wohl an Motherboard und kompatbilitätsproblemen mit den AMD Karten am Ende lag, sowas bleibt halt im Kopf dann bei mir hängen, mit nvidia hatte ich noch nie solche heftigen Probleme wie mit AMD Karten.

Dann jetzt noch das Hitze und Ausfall-Problem der neuen Serie bei AMD und du willst mir erzählen die Karten sind gut ? Sorry, nein sind sie nicht.
Schade, dass es bei dir solche Probleme gibt.

Mein 4k144Hz Dell G3223Q mit
"Adaptive Sync" (Freesync) fluppt halt wunderbar.

Aber Hardwarekonfigurationen sind immer etwas Glückssache, evtl gibts ein Firmware Update.
 
  • Gefällt mir
Reaktionen: McTheRipper und Rambo5018
Northstar2710 schrieb:
@Wolfgang
Und bitte auch Nvidia Karten mit in den Vergleich nehmen. Das findet man nirgends!

Haben wir schon gegengeteset.
Habe mit 1440p 165Hz HDR + 4k 144Hz HDR ~64W Idle auf der 4090. HDR macht hier 20W aus am Desktop.

Bei 2x 4k 144Hz HDR mit der 7900XTX war der Gegentest bei ~112W im Idle.
 
Lilz schrieb:
Der erste Eindruck reicht vielen ja um die Generation abzustempeln und zum grünen Lager zu greifen.
Dann dürfte die grünen (4080 und darüber) ja erst Recht niemand kaufen wenn dem so ist.

Beide haben den Release bissl verkackt, aber ich hab lieber bissl mehr Verbrauch im Idle und bei YouTube bei Team Rot als ne brennende Bude im schlimmsten Falle wie bei Team Grün :lol: :lol:

Un ja, ich bin jemand wo der Rechner auch über Nacht, wenn ich gar nicht zuhause bin und sonst wann läuft, und solange die diesen derzeitigen Stecker verbauen kommt mir keine RTX 4000er ins System, ich hoffe ja noch auf ne Custom mit den bewährten 8 Poligen Anschlüssen, dann kommt ne 4080 oder 4090 wieder mit rein in eine Überlegung.
 
drago-museweni schrieb:
Du hast doch sicher mitbekommen das AMD Treiber Probleme hat und daran arbeitet. (Vermutlich wegen frühzeitigem Relase wegen Weihnachten)




Das kann ich dir nicht glauben wo doch AMD so schlecht ist warum solltest du da eine AMD Karte holen, bzw gleich drei, komisch das dann nicht alles voll ist mit Meldungen das die Karten nicht laufen gerade die 6000 Serie hatte sich doch recht gut verkauft am Anfang.

Vielleicht etwas weniger S....s dann könnte man das auch ernst nehmen.
Soll ich dir die Bestellungen screenhoten? Was denkst du denn woher meine negative Meinung zu den AMD-Karten kommt? Als ob ich hier einfach so was negatives schreiben würde, da muss doch die Erfahrung mitspielen und ich hatte 3 Verschiedene Custom Karten hier, alle hatten die gleichen Probleme, konnten nicht mal Freesync an nem AMD Freesync Premium-Monitor flickerfrei wiedergeben aber mit NVIDIA Karten funktionierts per Gsync ohne Probleme, schon komisch ne? Obwohl der Monitor für AMD Karten ausgelegt ist..........

Bei Gott bin ich kein AMD Hater, sonst hätte ich ja keine AMD CPU, denk mal drüber nach.
Ergänzung ()

Cleanor schrieb:
Schade, dass es bei dir solche Probleme gibt.

Mein 4k144Hz Dell G3223Q mit
"Adaptive Sync" (Freesync) fluppt halt wunderbar.

Aber Hardwarekonfigurationen sind immer etwas Glückssache, evtl gibts ein Firmware Update.
Darf aber keine Glückssache sein bei einem zertifizierten AMD-Monitor.

LG UltraGear 34GN850-B

Das ist mein Monitor und es gibt für den keine Firmware Updates, gerade nochmal nachgeschaut.
 
Zuletzt bearbeitet:
@Esenel Danke. Hatte bei den ganzen Tests leider keine Vergleiche gefunden, nur immer AMDs hohen Verbrauch. Das habe ich nicht verstanden warum man nicht Nvidia gleich mitgetestet hatte.
 
Gewaltig eine XTX brauch im Idle immer noch 69'% mehr als eine 4090.:lol:

Eine 6400 Krüppelkarte braucht im Load bei Game nicht viel mehr, aber eine XTX um den Desktop anzuzeigen.
 
Schon mal dran gedacht das es am Monitor lag und nicht an der GPU? Mein Freesync Premium Monitor läuft auch direkt ohne Probleme.
 
Dai6oro schrieb:
Aber das wundert doch nicht?! beim Smartphone ist auch das Display der Energiefresser, das ist am PC nicht anders besonders bei idle oder niedriger Last.

Eben nicht! Je nach Monitor brauchst normal 15-30 Watt. Das ist Durchschnitt und da kann man auch nicht viel daran ändern. Ähnlich wie beim Smartphone. Der PC braucht aber im Idle häufig 60 Watt+ wo hingegen das Smartphone da unter 1 Watt ist.

Sehe da deutlich mehr Einsparpotenzial beim PC und nicht beim Monitor. Keine Ahnung wie man einen Monitor von 20 auf <5 Watt in näherer Zukunft bringen könnte.
 
  • Gefällt mir
Reaktionen: Czk666
Das ist sehr gut, dann geht meine RTX 3060 Ti bald woanders hin und ich steige auf eine RX 7900 XT um. Ich hatte mich sowieso schon gewundert....
 
GM206 schrieb:
Gewaltig eine XTX brauch im Idle immer noch 69'% mehr als eine 4090.:lol:
Du hast wohl nen anderen Test gelesen als ich? Bei mir ist die XTX sogar vor der 4090
 
Daggy820 schrieb:
Dann dürfte die grünen (4080 und darüber) ja erst Recht niemand kaufen wenn dem so ist.

Beide haben den Release bissl verkackt, aber ich hab lieber bissl mehr Verbrauch im Idle und bei YouTube bei Team Rot als ne brennende Bude im schlimmsten Falle wie bei Team Grün :lol: :lol:

Abgesehen von der ersten Aufregung um einen Stromstecker (der einfach nicht gut ist) funktionieren die Nvidia Karten der 4000er Generation von Minute 1 an quasi perfekt. So wünscht man sich ein Stück Hardware oder Software.
 
@PTS
Das einzige was für dein Monitor erwähnt wird ist gsync-compatible aber nicht ein einziges Mal AMD oder freesync ?
https://www.lg.com/de/monitore/lg-34gn850-b

Ok, bei geizhals wird freesync erwähnt. Aber welche AMD Zertifizierung meinst du?
 
  • Gefällt mir
Reaktionen: McTheRipper und Rambo5018
Zurück
Oben