Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen
Termy
Commodore
- Registriert
- Mai 2007
- Beiträge
- 4.966
2x 1440p 120hz.TKessel schrieb:Darf ich nach deinem Monitor-Setup Fragen? Ich bin in UWHQD mit 144Hz unterwegs. Meine 6800XT geht im Idle dann brav auf ihre 8 Watt runter. Ich hab das Gefühl, dass die Karten teilweise mit verschiedenen Monitoren einfach nicht zurecht kommen.
Habe auch schon 144hz probiert, genau wie die im Mesa-Bugreport besprochenen Workarounds, nichts wollte funktionieren.
Sind zwei LG, einmal 32KG850F, einmal 32GK650F
spfccmtftt89
Lt. Commander
- Registriert
- Mai 2018
- Beiträge
- 1.216
Hach ja, dafür kommt es bei nVidia vor, dass sich die GPU wie ein externes Laufwerk auswerfen lässt. Ist dann eben etwas ungünstig.Neodar schrieb:Ich will nicht sagen, dass NVidia Treiber fehlerlos sind. Aber sowas kommt bei denen einfach nicht vor.
Oder zumindest ist mir das nicht bekannt.
Jeder Hersteller legt sich ab und an ein Ei.
Das leidige Thema mit dem Stromverbrauch im Idle/Officebetrieb durch nicht heruntertaktenden vRAM ziehen sie doch schon seit Jahren mit und können das Problem nicht lösen oder möchten es nicht lösen.
derbe
Lt. Commander
- Registriert
- Aug. 2013
- Beiträge
- 1.771
Der neue Treiber hat bei mir ein ätzenden Bug, wenn ich in Standby gehe wacht mein PC`(Windows10) auf, aber ich ist eingefroren und ich muss rebooten - noch jemand?
Und ich habe mit einem Monitor (UHD 144Hz) mehr verbrauch als zuvor (~40 Watt vs ~60 Watt)
Alter Treiber(22.12.2) Monitor (UHD 144Hz):
Mit zwei Monitoren ist es leider noch immer so schlecht wie mit 22.12.2 war.(UHD 144Hz + FHD 144 Hz) ~110 Watt
Man sieht deutlich das der Ram zu "hoch" taktet. Denke da kann man noch was tun. Bei beiden Szenarien.
Edit: Trostpflaster ist, das UHD Youtube nicht mehr verbraucht als der 110W Idel
Und ich habe mit einem Monitor (UHD 144Hz) mehr verbrauch als zuvor (~40 Watt vs ~60 Watt)
Alter Treiber(22.12.2) Monitor (UHD 144Hz):
Mit zwei Monitoren ist es leider noch immer so schlecht wie mit 22.12.2 war.(UHD 144Hz + FHD 144 Hz) ~110 Watt
Man sieht deutlich das der Ram zu "hoch" taktet. Denke da kann man noch was tun. Bei beiden Szenarien.
Edit: Trostpflaster ist, das UHD Youtube nicht mehr verbraucht als der 110W Idel
Zuletzt bearbeitet:
R
Ragnarök88
Gast
Nein, überhaupt nicht ironisch gemeint.Gerithos schrieb:Ist das ironisch gemeint oder straft du mich meiner Meinung dir gegenüber jetzt lügen? 😶🌫️
Ich spiele mit meiner Grafikkarte immer mit irgendwelchen Limitern, sei es FPS oder weniger Power Target.
Die Werte von AMD waren vorher schlicht katastrophal.
Balikon
Captain
- Registriert
- Juni 2008
- Beiträge
- 3.476
Ach AMD, könntet Ihr mal bitte zum Release einen Treiber bringen, der Out-of-the-box so funktioniert, wie er soll? Ich habe bisher bei Release den Eindruck, dass die Treiber gerade so zurecht gefrickelt wurden, dass die Karten nicht abschmieren.
Auf den Releasetreibern, die eigentlich immer nur so zusammengezimmert scheinen, basiert meiner Meinung nach die Mär vom "Fine Wine". Klar, wenn man mit der Treiberoptimierung erst nach dem Release beginnt, könnte man den Eindruck gewinnen, dass die Karten immer besser werden. Wäre aber mal schön, wenn die von Anfang an ihr volles Potential ausschöpfen könnten.
Auf den Releasetreibern, die eigentlich immer nur so zusammengezimmert scheinen, basiert meiner Meinung nach die Mär vom "Fine Wine". Klar, wenn man mit der Treiberoptimierung erst nach dem Release beginnt, könnte man den Eindruck gewinnen, dass die Karten immer besser werden. Wäre aber mal schön, wenn die von Anfang an ihr volles Potential ausschöpfen könnten.
Im "großen" Test schon (halt mit der 2x 2160p @ 60Hz), hier jetzt aber nicht noch mal, oder hab ich das übersehen?Wolfgang schrieb:Meinst du mehr als einen Monitor? Mit zwei Dsplays testen wir ja.
Mit zwei schnelleren Monitoren könnte man vielleicht herausfinden, ab welchem Pixeldurchsatz AMD nicht mehr mit dem Leerlauftakt beim RAM auskommt und diesen dann gleich voll aufdrehen muss.
Inxession
Captain
- Registriert
- Sep. 2008
- Beiträge
- 3.344
Fine Whine ...
Ich hab eigentlich auch gehofft, AMD schafft es direkt zum Release schon vom Chiplet Design zu profitieren und vielleicht den ein oder anderen "ungenutzten" Chip, zu deaktivieren um Energie zu sparen.
Das scheint noch ein wenig zu dauern bis das alles richtig funktioniert.
Für mich sind RX 7900 XT(X) aber trotzdem nicht DIESER Flop, wie es hier und da heißt.
Die Preise sind einfach grottig.
Eigentlich doppelt so hoch wie sie sein sollten ... das macht die NICHT-Kaufentscheidung einfach.
Müsste ich neu kaufen, wäre es RDNA2 im Abverkauf.
Wenn nicht mehr verfügbar, eine 7900 XTX aber nicht zu diesem Preis.
Ich hab eigentlich auch gehofft, AMD schafft es direkt zum Release schon vom Chiplet Design zu profitieren und vielleicht den ein oder anderen "ungenutzten" Chip, zu deaktivieren um Energie zu sparen.
Das scheint noch ein wenig zu dauern bis das alles richtig funktioniert.
Für mich sind RX 7900 XT(X) aber trotzdem nicht DIESER Flop, wie es hier und da heißt.
Die Preise sind einfach grottig.
Eigentlich doppelt so hoch wie sie sein sollten ... das macht die NICHT-Kaufentscheidung einfach.
Müsste ich neu kaufen, wäre es RDNA2 im Abverkauf.
Wenn nicht mehr verfügbar, eine 7900 XTX aber nicht zu diesem Preis.
Wenn AMD nur Leerlauftakt und Vollgas verifiziert, dann können sie nicht mal einfach im Nachgang noch irgendeinen Zwischenschritt mit weniger Verbrauch einziehen. (obendrein könnte es auch ein Limit der Architektur sein)derbe schrieb:Man sieht deutlich das der Ram zu "hoch" taktet. Denke da kann man noch was tun. Bei beiden Szenarien.
R
RyzaTune
Gast
Sehr gut das der Idle Vebrauch vom absurden runter ist, wobei für mich (und viele andere) 120Hz Ergebnisse interessanter gewesen wären. Kenne kaum einen der 4k @ 60 nutzt, schon gar keinen Gamer. Ansonsten(beim Gaming) ist leider die Effizienz enttäuschend, die XTX ist etwa auf dem Verbrauchsniveau einer 4090, das steht halz zu keinem Verhältnis.
- Registriert
- Nov. 2002
- Beiträge
- 8.928
Klicke auf "Kompletter Leerlauf" in der Diagrammreihe Leistungsaufnahme, Windows-Desktop, dann bist du da wo du hin möchtestincurable schrieb:Im "großen" Test schon (halt mit der 2x 2160p @ 60Hz), hier jetzt aber nicht noch mal, oder hab ich das übersehen?
Mit zwei schnelleren Monitoren könnte man vielleicht herausfinden, ab welchem Pixeldurchsatz AMD nicht mehr mit dem Leerlauftakt beim RAM auskommt und diesen dann gleich voll aufdrehen muss.
Man muss die schnelleren Monitore aber erstmal haben, auf Bäumen wachen diese leider auch für uns nicht.
Ein 4K144-Display haben wir uns wie von Jan schon gesagt diese Woche gekauft, noch ein zweites 4K144 kaufen wir uns nur für diesen einen Test aber nicht. Vielleicht können wir was mischen in Zukunft(zum Beispiel 1x 4K60 und 1x4K144), mehr geht aber nicht.
- Registriert
- Nov. 2002
- Beiträge
- 8.928
Wenn möglich die FPS immer im Spiel limitieren.body-mg schrieb:Eine Frage: an welcher Stelle macht die FPS-Limitierung sinn? Im jeweiligen Spiel oder im Treiber/Adrenalin?
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.657
@Wolfgang Ein bisschen unglücklich, dass man erst jetzt erfährt, dass der 2. Treiber den Verbrauch teils deutlich verbessert hat, nachdem man vorher schon eine News gebracht hat, nach der der dritte Treiber nichts am Verbrauch verbessert.
In den Kommentaren dort war entsprechend ohne die Info aus diesem Artikel natürlich die Stimmung sehr negativ, weil man davon ausgegangen ist, es hätte sich seit Release gar nichts am Teillastverbrauch in Spielen getan.
Aber trotzdem gut, dass du es nochmal explizit auch in Spielen nachgetestet hast, obwohl die Patchnotes nichts in der Richtung enthalten haben.
In den Kommentaren dort war entsprechend ohne die Info aus diesem Artikel natürlich die Stimmung sehr negativ, weil man davon ausgegangen ist, es hätte sich seit Release gar nichts am Teillastverbrauch in Spielen getan.
Aber trotzdem gut, dass du es nochmal explizit auch in Spielen nachgetestet hast, obwohl die Patchnotes nichts in der Richtung enthalten haben.
R
RyzaTune
Gast
Achso, aber die defekten AMD Karten und unzuverlässigen Treiber sind in Ordnung? AMD ist nicht günstiger als Nvidia, Nvidia bietet viel mehr Leistung, aber Preis Leistungstechnisch sind sich Nvidia und AMD ähnlich. Heißt Team Grün darf sich keine Fehler erlauben, Team Rot ist ja schon rot sollen se weiter machen oder was? Also irgendwo muss man mal hier Objektiv bleiben. Mal davon abgesehen, langsam sollte jeder gecheckt haben das die Geschichte mit dem Kabel sehr wenig betroffen hat, anders bei AMD. (Sogar der8auer hat das so gesagt und der hat denke ich besseren Draht in die Technik Welt als die meisten hier)Mcr-King schrieb:Vom Kabel Desaster und unnötigen Stecker mal abgesehen nee bei der 40er Serie bin ich raus.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.189
Diese Worte von dir zu lesen lässt mich in meinem Weltbild wankenRagnarök88 schrieb:Bei Nvidia wurde der hohe Verbrauch von Ampere im FPS Limit bis heute nicht behoben.
Also lieber zeitnah per Treiber als nie.
Also ich begrüße das und hoffe da passiert noch so einiges im Treiber.
Da mir die Preise in dieser Gen viel zu hoch sind warte ich ab bis dahin ist der Treiber bestimmt deutlich besser. Und die XT dann hoffentlich für unter 700 Euro zu haben ist.
R
RyzaTune
Gast
Solange es funktioniert natürlich im Treiber, rein aus bequemlichkeit spart man sich das einstellen in jedem Spiel.body-mg schrieb:Eine Frage: an welcher Stelle macht die FPS-Limitierung sinn? Im jeweiligen Spiel oder im Treiber/Adrenalin?
Ergänzung ()
Hat es AMD den behoben oder nur verbessert?Ragnarök88 schrieb:Bei Nvidia wurde der hohe Verbrauch von Ampere im FPS Limit bis heute nicht behoben.
Also lieber zeitnah per Treiber als nie.
Im UHD sieht es doch sehr deutlich aus, für WQHD ist die 7900 XTX aber definitiv eine rundum sorglos Grafikkarte.
Mich würde aber BRENNEND interessieren wie sie die neuen Karten in VR schlagen, im Vergleich zur letzten Generation.
Wenn man da entsprechende Zuwächse hätte, dann könnte ich mir zumindest vorstellen von der 6900 XT zu wechseln.
Mich würde aber BRENNEND interessieren wie sie die neuen Karten in VR schlagen, im Vergleich zur letzten Generation.
Wenn man da entsprechende Zuwächse hätte, dann könnte ich mir zumindest vorstellen von der 6900 XT zu wechseln.
Stefan1200
Lt. Junior Grade
- Registriert
- Mai 2018
- Beiträge
- 456
In diesem Zusammenhang würde ich es spannend finden, wenn Ihr auch den Multi Monitor Stromverbrauch im Mixed Monitor Setup testen könntet. Mir ist zum Beispiel aufgefallen, dass GPUs gerne etwas mehr schlucken, wenn man mehrere Monitore mit unterschiedlichen Bildwiederholfrequenzen angeschlossen & eingeschaltet hat. Zudem ruft es auch die tollsten Bugs in Windows 10 hervor, aber darum soll es hier nicht gehen.Wolfgang schrieb:Wir werden den 4K60-Monitor austauschen gegen ein 4K144-Modell.
Damit werden wir den Idle-Verbrauch aber nicht nur stur in 4K144 testen, sondern stand jetzt auch in anderen Modi (4K60, WQHD144, WQHD60, FHD144, FHD60).
In meinem Fall ist es ein 1080p60 Bildschirm, den ich mit meinem 1440p120 Bildschirm kombiniere (beim Arbeiten im Home Office sind es sogar 2x 1080p60 + 1440p120 Bildschirme).
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 7.933
- Antworten
- 124
- Aufrufe
- 17.284
- Antworten
- 369
- Aufrufe
- 47.383
- Antworten
- 26
- Aufrufe
- 5.707
- Antworten
- 49
- Aufrufe
- 8.678