Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Rockstar85 schrieb:
Du magst Recht haben, dass der GCD Chiplet ein Testballon für XBox und PS ist, das weiß ich nicht.. Bisher hatten beide ja abgespekte Top of the Art HW.. Also ja es kann sein, dass eine Nächste XBox dann einenn echten IF hat den sich GPU und CPU teilen, wie es Fusion mal vorsah. Aber dazu fehlt mir dann ein PS6 Devkit um das zu falsifizieren.. Sollte AMD aber halt die AI, Wave64 Zuordnung in Griff kriegen, dann wird es eh spannend. Denn dann steht die 7900XT am Ende auch bei 80% einer 4090... Und wenn man sich dann die Flächen anschaut, wird es richtig spannend..
abgespeckt, ned wirklich. Die haben eben Custom Anpassungen an das was Sony oder M$ eben will.
Und wenn man die Spiele ordentlich optimiert sieht man, was die aus dieser poppeligen GPU (PS5) rausholen kann, wenn man will.

Das ist zu hoffen...
Rockstar85 schrieb:
Ich finde spannend, dass dieser Treiber mal eben 20% im Low rausholt.. Wenn öfter Engines wie die IW9 oder eben die UE5 richtig angesprochen werden, dann könnten wir auch Obenrum nochmal bissl Zuwachs sehen.


Bei Intel sind die Treiber doch seit 2021 kaputt ;) Into the Odyssee passte da damals echt gut xD
Epic optimiert ihre Engines immer an die Archichtektur und CoD MW2 läuft auf AMD auch besser.

Keine Ahnung was bei Intel ist, verwende ich seit Ryzen 3xxx nimma :)
 
Eli0t schrieb:
Epic optimiert ihre Engines immer an die Archichtektur und CoD MW2 läuft auf AMD auch besser.

Keine Ahnung was bei Intel ist, verwende ich seit Ryzen 3xxx nimma :)
Schau dir die TW Engine an...RDNA2 zu 3... WTF sag ich da nur..
 
  • Gefällt mir
Reaktionen: Eli0t
Zer0Strat schrieb:
Um ehrlich zu sein, ich hoffe, dass Nvidia ihre Preispolitik um die Ohren fliegt. Ich bin alles anders als begeistert. Aber dann schaue ich rüber zu AMD, die ja eine "Gegenkraft" darstellen sollten und dann verliere ich jede Hoffnung.
Siehst Du doch im Preisvergleich. 4070 Ti liegt auch zum UVP wie Blei in den Lagern, 4080 sowieso.
So ist das eben, wenn eine Firma "greedy" ist...
Ergänzung ()

Perdakles schrieb:
Das mag für den Gaming-Betrieb gelten, nicht aber für den Idle-, Multi-Monitor- oder Teillastbetrieb (YouTube etc.). Zumal eine 20% bessere Gaming Performance nur durch Treiberoptimierung recht illusorisch erscheint. Mir ist bewusst, dass einige Tech-tuber daran glauben (MLID bspw.), aber das glaube ich erst wenn ich es sehe.
Das kümmert Dich, aber der Masse vor allem über dem Ozean ist das vollkommen bowidl.
Idle haut ja schon halbwegs hin, also ich bin zuversichtlich, daß sie das halbwegs in den Griff bekommen.
 
  • Gefällt mir
Reaktionen: Illithide und Rockstar85
Eli0t schrieb:
Nein, das ist ein Trugschluss. Gamer sind nicht wichtiger, weil dann würde die Karten ja günstiger sein.
Wieso? Nvidia will die Grafikkarten mit guten Margen verkaufen. Das wollen alle Unternehmen.
Eli0t schrieb:
Server sind wichtig, Server GPUs sind wichtig, Server DPUs sind wichtig. Da kosten solche Karten schon mal eben 10-20k.
Oben argumentierst Du, dass wenn die Gamer für Nvidia wichtig wären, die Preise nieriger wären, hier nimmst Du die noch höhere Preise als Belg für die Wichtigkeit.

Gaming-GPUs werden für Nvidia wichtig bleiben. Aber Nvidia ist eben kein Unternehmen mehr, das nur Gaming-GPUs macht.
Zer0Strat schrieb:
Was Nvidia versucht, ist die hohen Preise aus der Miningphase beizubehalten. Können sie auch wie man sieht. AMD ist einfach zu schwach.
Oder zu teuer, für die Leistung.

Aber die große Frage ist wie sich das Preisgefüge auf den Markt auswirken wird.

Du tust immer so dass es nur die Alternative gibt Nvidia oder AMD. Aber es gibt eine dritte. Nicht kaufen.
Rockstar85 schrieb:
Du magst Recht haben, dass der GCD Chiplet ein Testballon für XBox und PS ist, das weiß ich nicht.
Ich verstehe nicht was Du mit Testballon meinst. Navi 31 ist nicht das erste Produkt von AMD das aus Chiplets besteht. Natürlich werden weitere folgen.

Generell gilt, der Weg zu den Chiplets ist vorgezeichnet. Auch Nvidia wird ihn gehen.
Rockstar85 schrieb:
Ich finde spannend, dass dieser Treiber mal eben 20% im Low rausholt.
Wieso? Es sieht doch ganz danach aus, dass man eine Stromspar-Funktion noch nicht implementiert hatte oder dass sie wegen einem Bug nicht aktiv war.
Rockstar85 schrieb:
Wenn öfter Engines wie die IW9 oder eben die UE5 richtig angesprochen werden, dann könnten wir auch Obenrum nochmal bissl Zuwachs sehen.
Betonung auf bissl.
Rockstar85 schrieb:
Bei Intel sind die Treiber doch seit 2021 kaputt ;) Into the Odyssee passte da damals echt gut xD
Das macht das verkorkste Release der 7900XTX/XT auch nicht besser, oder?
Rockstar85 schrieb:
Nicht AMD ist zu Schwach, NV wird auch dann gekauft, wenn AMD gleichwertig ist.
Das ist richtig, es gibt einem Bonus für Nvidia. Den hat sich Nvidia aber auch erarbeitet.
Und deshalb ist die 7900XTX für diesen Preispunkt zu schwach.
Zer0Strat schrieb:
Es tut mir leid, auch wenn das hart klingt, aber ich kann AMD einfach nicht empfehlen.
Das wissen doch alle hier im Forum schon längst.
Und es gibt Leute, die hören eben nicht auf Deine Empfehlung.
 
  • Gefällt mir
Reaktionen: znarfw, Infi88, Illithide und eine weitere Person
ETI1120 schrieb:
Das macht das verkorkste Release der 7900XTX/XT auch nicht besser, oder?
Es ist schon ein Unterschied, wenn man 2021 das Treiberteam feuert und eine GPU auf den Markt bringt, die nur in ausgewählten Spielen performend, oder man wie AMD Probleme hat die Dual Issue Prozessoren zu aktivieren. Grade wenn man sieht, welche Knete bei Intel Steckt.
 
Rockstar85 schrieb:
Nö, Marketing wirkt eben... Ich meine NV hat im Vergleich zu vor Corona die Preise fast verdoppelt und ja leider auch Leute wie du liefern das Futter dafür. Nicht AMD ist zu Schwach, NV wird auch dann gekauft, wenn AMD gleichwertig ist. Vllt ein bissl mehr Objektivität für 2023?
Das machen Wolfgang und Jan dann doch besser, auch wenn man denen gerne mal das Gegenteil vorwirft.
Bitte? Du tust das als "Fakt und Generell" ab, ist definitiv nicht wahr.
Hier im Forum wären sicherlich viele auf eine AMD Karte der RX7000er Reihe gegangen, wenn AMD nicht in dieser Gen so heftig verkackt hätte (im Vergleich zu Nvidia).
Warum sollte ich derzeit bei selbem Preispunkt zu einer 7900XTX greifen, wenn ich auch ne 4080 haben kann, die frisst weniger und ist immer noch schneller (meistens).

Und über das Thema 4090 muss man nicht reden, AMD hat hier keine Konkurrenz geliefert, also kann NV (ob es uns passt oder nicht) machen was sie wollen.

Aber zu sagen AMD würde nicht gekauft werden, wenn sie besser wären, ist Bullshit, zumindest in meinem Fall.
Also hör auf so zu pauschalisieren, danke.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Eli0t schrieb:
Siehst Du doch im Preisvergleich. 4070 Ti liegt auch zum UVP wie Blei in den Lagern, 4080 sowieso.
So ist das eben, wenn eine Firma "greedy" ist...
Das Problem für Nvidia war, dass noch einiges an Ampere-GPUs auf den Abnehmer wartet. Bei realistischen Preisen für die 4080 und 4070TI hätten Nvidia die Ampere-GPUs quasi verschenken müssen.

Im Grund hat Nvidia gejubelt als sie die Preise von AMD gesehen haben. Damit war klar, dass AMD sie nicht unter Druck setzt. Es bleibt die Frage wie der Absatz insgesamt aussieht.

Meine Meinung ist unverändert: Wenn die Ampere-Grafikkarten abverkauft sind, wird Nvidia die Absatzzahlen für 4080 und 4070TI prüfen. Und wenn sie der Meinung sind durch eine Preissenkung besser abzuschneiden, werden sie die Preise senken.

Und wenn sie das tun sollten, sehen viele nur noch diese Preissenkung und und vergessen den vergleich zur Vorgängergeneration.
 
Unti schrieb:
Bitte? Du tust das als "Fakt und Generell" ab, ist definitiv nicht wahr.
Hier im Forum wären sicherlich viele auf eine AMD Karte der RX7000er Reihe gegangen, wenn AMD nicht in dieser Gen so heftig verkackt hätte (im Vergleich zu Nvidia).
Es ist Fakt. Dazu muss man am Ende nicht mal auf Youtube gucken.

Schau dir die Shippingzahlen an oder dem Steam Survey.. Mehr sag ich nicht dazu.
AMD dient seit GCN nur dazu, dass NV die Preise senkt.
Das ist am Ende die Quittung für die TITAN Nummer damals mit Pascal.
 
Zer0Strat schrieb:
Hier hast du deine Objektivität. Hab die RX 6800 XT gerade eingebaut für ein paar Tests. Zwei Games gestartet, gleich ein fetter Bug. Bild bleibt schwarz.
Da sitzt das Problem vor dem Rechner. Poste deine Probleme bitte in den entsprechenden Threads. Bei meiner 6800xt bleibt kein Bild schwarz beim Starten.
 
  • Gefällt mir
Reaktionen: Atlan2101, Captain Mumpitz, daknoll und 3 andere
Zer0Strat schrieb:
Hier hast du deine Objektivität. Hab die RX 6800 XT gerade eingebaut für ein paar Tests. Zwei Games gestartet, gleich ein fetter Bug. Bild bleibt schwarz.

Es tut mir leid, auch wenn das hart klingt, aber ich kann AMD einfach nicht empfehlen. Das hat nichts mit Bashen oder Antipathie zu tun. Die Firma an sich ist mir egal. Es basiert auf nüchternen Erfahrungen.

Anhang anzeigen 1311599
Darktide-Bugs als Anlass nehmen, AMD nicht zu empfehlen? Das Game hat aktuell kein Craftingsystem, nichts von dem versprochenen Charaktersystem, aktuell kaum nennenswertes Gameplay, kaum Karten, die die es gibt sind weitgehend gleich, kein privateplay, keine Weaponbalance und ist generell verbuggt ohne Ende. Mit nV genauso wie gelegentlich mit AMD. Typischer Ada-Releasetitel. Hauptsache irgendwas mit RTX. Auf Steam trotz Warhammerszenario deshalb nach den ersten Wochen schon fast wieder aus den Top100 rausgerutscht, aktuell imho auf Platz 9X. 🤣

Und dafür läuft es auf AMD-Karten sehr gut.

Wenn man aus Darktide etwas ableiten kann, dann das nV-Titel technisch einfach oft Scheiße sind. Und wo ist denn der zweite Titel? Haste vergessen, wa? Ganz Dein übliche Niveau. Nüchtern? Schöner kann man Fanboytum doch fast nicht mehr demonstrieren.
Ergänzung ()

Unti schrieb:
Warum sollte ich derzeit bei selbem Preispunkt zu einer 7900XTX greifen, wenn ich auch ne 4080 haben kann, die frisst weniger und ist immer noch schneller (meistens).
Die ist nur bei CB schneller. Nach objektiviertem Metatest ist sie ein paar Prozent langsamer. Und die Preise von RDNA3 haben sich inzwischen auch eingeschwungen und sind nicht mehr auf „ich-brauche-unbedingt-vor-Weihnachten-noch-schnell-etwas-Niveau“.
 
Zuletzt bearbeitet:
mcsteph schrieb:
Da sitzt das Problem vor dem Rechner. Poste deine Probleme bitte in den entsprechenden Threads. Bei meiner 6800xt bleibt kein Bild schwarz beim Starten.
Und da labert jemand ohne mal selber objektiv Bugfixing betrieben zu haben.
Den Fehler hatte ich auch und ein Kumpel mit der 6900XT auch.
Es gab bis vor 1 Monat auf der Known Issue List ein Problem, dass bei Alt-Tab oder ähnlichem das Bild schwarz blieb, bei HDMI Monitoren "No Signal".

Das Problem gabs bei NV aber auch bei der RTX3000er Reihe, wurde erst in Win11 aber gelöst (liegt und lag an HDMI2.1).

Nur weil bei einem selber aus glücklichen Umständen die Probleme nicht auftreten, heißt es nicht, dass die nicht da sind und in diesem Falle was solche Bugs betrifft werden die sogar von den Herstellern dokumentiert, stehen ewig lang auf einer Liste und werden quasi nie oder wenn dann doch in 100 Jahren erst abgearbeitet.... Prio und so.. nicht
 
Labert da jemand, der den angeblichen 6800XT-Fehler mit ner 4090 hat, oder was? Es ging hier darum, ob Darktide irgendetwas über Treiberqualitäten aussagt. Tut es nicht. Nur über Bugtide selbst.
 
Illithide schrieb:
Die ist nur bei CB schneller. Nach objektiviertem Metatest ist sie ein paar Prozent langsamer. Und die Preise haben sich inzwischen auch eingeschwungen.
Ach, Märchen um Märchen.

Da haste die Liste von Alternate und Caseking als Beweis:
AMD:
https://www.alternate.de/Grafikkarten/RX-7900-XTX
https://www.caseking.de/pc-komponenten/grafikkarten/amd/radeon-rx-7900-xtx
NV:
https://www.alternate.de/Grafikkarten/NVIDIA-Grafikkarten/RTX-4080
https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4080

Und laut CB Test ist die 7900XTX halt im kleinsten 1-stelligen % Bereich schneller in Raster und RT wird mit dem Ding schlitten gefahren, bei knapp 70-100W weniger Verbrauch?!
Alles klar.

Zumal siehe oben der Preisbereich gleich ist, nur AMD sowieso nicht liefern kann, sogar wenn sie wollten.
Und ja, die 4080 hat nen scheiß Preispoint, ABER ist lieferbar und Stand jetzt (jetzt!!!) gleich teuer, günstig oder what ever....
Ergänzung ()

Illithide schrieb:
Labert da jemand, der den angeblichen 6800XT-Fehler mit ner 4090 hat, oder was? Es ging hier darum, ob Darktide irgendetwas über Treiberqualitäten aussagt. Tut es nicht. Nur über Bugtide.
Ich hab in den letzten 24 Monaten 2x 3090 und 1x 6900XT und jetzt ne 4090.
Und ich bin eines der einzigen Opfer, die sich durch die HDMI2.1 Problematik als "Early Adopter" gequält haben.
Das mit den Blackscreens und Freezes, egal in welchen Games ist aktuell ein massives Thema und sogar OS abhängig....
Schau doch bzgl. dieser Problematik einfach in die Changelogs der letzten 3 Treiber, dann siehst du es selber....

Und nein, mit der 4090 hab ich tatsächlich mal Out of the Box keine Probleme... das war mit RTX3000 und RX6000 ganz anders....
 
Unti schrieb:
Ach, Märchen um Märchen.

Da haste die Liste von Alternate und Caseking als Beweis:
AMD:
https://www.alternate.de/Grafikkarten/RX-7900-XTX
https://www.caseking.de/pc-komponenten/grafikkarten/amd/radeon-rx-7900-xtx
NV:
https://www.alternate.de/Grafikkarten/NVIDIA-Grafikkarten/RTX-4080
https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4080

Und laut CB Test ist die 7900XTX halt im kleinsten 1-stelligen % Bereich schneller in Raster und RT wird mit dem Ding schlitten gefahren, bei knapp 70-100W weniger Verbrauch?!
Alles klar.

Zumal siehe oben der Preisbereich gleich ist, nur AMD sowieso nicht liefern kann, sogar wenn sie wollten.
Und ja, die 4080 hat nen scheiß Preispoint, ABER ist lieferbar und Stand jetzt (jetzt!!!) gleich teuer, günstig oder what ever....
Ergänzung ()


Ich hab in den letzten 24 Monaten 2x 3090 und 1x 6900XT und jetzt ne 4090.
Und ich bin eines der einzigen Opfer, die sich durch die HDMI2.1 Problematik als "Early Adopter" gequält haben.
Das mit den Blackscreens und Freezes, egal in welchen Games ist aktuell ein massives Thema und sogar OS abhängig....
Schau doch bzgl. dieser Problematik einfach in die Changelogs der letzten 3 Treiber, dann siehst du es selber....
Lesen ist nicht so Deine Stärke oder? XTX im Schnitt um die 200,- bis 300,- Euro billiger als die 4080. Bei Deinen eigenen Links.
Ansonsten kannst Du Dir den objektivierten Metatest hoffentlich selbst raussuchen. Das CB ein Ausreißer ist, hatte ich je bereits geschrieben.
 
  • Gefällt mir
Reaktionen: danyundsahne und Volvo480
So nachdem ich die Red Devil nun eingebaut habe bin ich sehr zufrieden, der Idle Verbrauch ist im Vergleich zu meiner alten 5700XT deutlich geringer und auch der Youtube Verbrauch ist für mein Empfinden sehr gering, und das beste das 750W Nt reicht ideal.
 
  • Gefällt mir
Reaktionen: m.obermueller, H1ldegunst und Sun-Berg
Illithide schrieb:
Lesen ist nicht so Deine Stärke oder? XTX im Schnitt um die 200,- bis 300,- Euro billiger als die 4080. Bei Deinen eigenen Links.
Okay, 1287 als teuerste und 1329 als billigste 4080 sind vll. etwas "Pro" 4080 ausgelegt, da stimme ich dir zu, aber des Lesens bin ich schon noch mächtig....
Über den Schnitt hinweg magst du recht haben, sofern die AMD Karten lieferbar wären, das ist aber wieder eine ganze andere Geschichte....
Illithide schrieb:
Ansonsten kannst Du Dir den objektivierten Metatest hoffentlich selbst raussuchen. Das CB ein Ausreißer ist, hatte ich je bereits geschrieben.
Welchen "Metatest" meinst du bitte bzw. von welcher Seite?
Ich habe mir aufgrund Zeit nur den CB Test gegeben.
 
Unti schrieb:
Bitte? Du tust das als "Fakt und Generell" ab, ist definitiv nicht wahr.
Was er schreibt ist übertrieben und überspitzt.

Es ist nun Mal so, die Gamer am PC bevorzugen Nvidia

Die Gründe dafür sind vielfältig. Spielt Games die Raytracing verwenden. Schlechte Erfahrung mit ATI/AMD-Karten. Immer nur Nvidia gehabt und kein Grund etwas anderes anzuschauen. Nutzt Funktionen, die nur Nvidia hat. Will mit der Grafikkarte nicht nur spielen, sondern auch für Anwendung X verwenden. Will fürs Studium mit GPGPU experimentieren. ...

Und diese ganzen Punkte ergeben im Mittelwert sich über die Masse der Anwender einen Bonus für Nvidia, den man in Euro ausdrücken kann.

Unti schrieb:
Hier im Forum wären sicherlich viele auf eine AMD Karte der RX7000er Reihe gegangen, wenn AMD nicht in dieser Gen so heftig verkackt hätte (im Vergleich zu Nvidia).
Ja, aber nur wenn AMD bei gleicher Gaming Leistung deutlich billiger wäre, oder bei gleichen Preis mehr Gaming Leistung bietet.

Und viele Leute interessieren sich nur für Grafikkarten von Nvidia. Alles andere interessiert die nicht.
Unti schrieb:
Warum sollte ich derzeit bei selbem Preispunkt zu einer 7900XTX greifen, wenn ich auch ne 4080 haben kann, die frisst weniger und ist immer noch schneller (meistens).
Ob die 4080 oder die 7900XTX schneller ist, hängt massiv von den Spielen ab, die man betrachtet.

Und deshalb streuen die Ergebnisse der Websites. Bei der Testsuite von Computerbase, hat die7090XTX bei 4K einen Hauch dünnen Vorsprung vor der 4080. Bei den meisten anderen Testsuites kam die 7090XTX ein bisschen besser weg.

Und wenn Du ganz ehrlich bist, muss Dich eine AMD-Grafikkarte überzeugen, im Zweifel nimmst Du immer eine Nvidia-Grafikkarte.

Unti schrieb:
Und über das Thema 4090 muss man nicht reden, AMD hat hier keine Konkurrenz geliefert, also kann NV (ob es uns passt oder nicht) machen was sie wollen.
Das witzige ist doch, dass Nvidia bei der 4090 die Preise in USD nur moderat angehoben hat, aber die 4080 massiv verteuert hat.
 
  • Gefällt mir
Reaktionen: danyundsahne, m.obermueller und Unti
Mhh im Graphen ist der Launchtreiber und der 22.12.2 im kompletten Leerlauf doch identisch :confused_alt:?
 
Unti schrieb:
Und da labert jemand ohne mal selber objektiv Bugfixing betrieben zu haben.
Den Fehler hatte ich auch und ein Kumpel mit der 6900XT auch.
Es gab bis vor 1 Monat auf der Known Issue List ein Problem, dass bei Alt-Tab oder ähnlichem das Bild schwarz blieb, bei HDMI Monitoren "No Signal".
Hatte ich nicht den Fehler. Zero pauschalisiert immer wieder und das ist das Problem
 
Zurück
Oben