Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Shy Bell schrieb:
Die defekten Vaporchambers sehe ich auch im Zusammenhang mit diesen überstürzten Release.
Nee, ich denke, das hat Igor gut erklärt. Die haben die einfach nicht getestet (braucht man ja nicht, weil das kostet Geld bei den niedrigen Margen). Das betrifft in erster Linie AVC und Cooler Master. Daß sowohl PC Partner als auch AMD versagt haben ist unbestritten.
Du kannst es aber auch so wie Intel machen, man produziert die Karten im Februar, liefert sie im November aus und die Treiber sind immer noch kaputt.
 
Zer0Strat schrieb:
Das mit dem Effizienzproblem mit FPS Limiter haben sie nie behoben. Ist auch die Frage, ob das machbar ist mit Treiberupdates oder ob das ein grundsätzliches Problem der Architektur ist. Ich hatte seinerzeit ein effizienteres Boostverhalten simuliert, das hatte einen negativen Einfluss auf das Framepacing.

Komisch, im CB Test bei 1440p mit Doom scheint das Problem doch behoben zu sein. In 4K dann nicht mehr. Aber das zeigt doch, dass es grundsätzlich geht. Von "nie behoben" kann doch nicht dir Rede sein, wenns doch unter 1440p ganz offensichtlich geklappt hat.
 
hippiemanuide schrieb:
Was ist aus dem Forum geworden? Hier scheint erwartet zu werden dass man immer alles weiss, immer alles richtig macht und immer so ist wie es andere gerne hätten? Falls ja ist der Zweck des Forums mMn denke ich verfehlt worden.
Es gibt dazu sogar eine News.. Ja es ist Teil der Medienkompetenz vorher sich kurz zu informieren und nicht einfach hier etwas reinzurufen.. Und JA es ist gerechtfertigte Kritik und weder war der Ton unangemessen, noch war er von oben Herab.
Nochmal: Wir mutmaßen und der einzige "Beweis" sind 48 defekte Karten, wie quasi durch alles sterben können.. Damit ein Die bricht, reicht auch ein falsch zusammengebauter Wakü. Behaupten kann man vieles am Ende. Ich habe ein massives Problem, wenn Unwahrheiten verbreitet werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _roman_ und Illithide
Zer0Strat schrieb:
Joar, Mining ist weggebrochen. Gamer sind wieder wichtiger. ^^ Wichtig vielleicht nicht unbedingt, aber wichtiger als zuvor
Nein, das ist ein Trugschluss. Gamer sind nicht wichtiger, weil dann würde die Karten ja günstiger sein. Server sind wichtig, Server GPUs sind wichtig, Server DPUs sind wichtig. Da kosten solche Karten schon mal eben 10-20k. Das sind Margen, die kein Consumerprodukt erreichen kann. Automotive hat sich im letzen Jahr verdoppelt, also dort gibts Wachstum. Und "Hopper" ist weit wichtiger für nVidia als jede Gamerkarte 😉.
 
  • Gefällt mir
Reaktionen: Illithide
Eli0t schrieb:
Nein, das ist ein Trugschluss. Gamer sind nicht wichtiger, weil dann würde die Karten ja günstiger sein. Server sind wichtig, Server GPUs sind wichtig, Server DPUs sind wichtig.
Richtig.. Und das sieht man auch, dass H100 nicht als Gamer GPU kommt, sondern Hopper ne reine HPC Arch ist.. Sowohl bei Intel als auch bei AMD sind die gamer GPU einfach nur "Nebenerwerb", gerade weil der PC Markt seit Jahren rückläufig ist. Sieht man eindrucksvoll an der Priorisierung Ryzen <-> RDNA..
 
Perdakles schrieb:
Damit sind die Low-Hanging-Fruits im Treiber bezüglich Effizienz wohl abgeerntet. Ich schätze mal, dass es ab jetzt deutlich schwieriger wird größere Effizienzverbesserungen zu erlangen.
Doch, wenn die Karte 20% besser performed, dann wird die Effizienz auch verbessert.
Ergänzung ()

Rockstar85 schrieb:
Richtig.. Und das sieht man auch, dass H100 nicht als Gamer GPU kommt, sondern Hopper ne reine HPC Arch ist.. Sowohl bei Intel als auch bei AMD sind die gamer GPU einfach nur "Nebenerwerb", gerade weil der PC Markt seit Jahren rückläufig ist. Sieht man eindrucksvoll an der Priorisierung Ryzen <-> RDNA..
Für AMD aber doch wichtiger, dank Sony und XBOX... nVidia bleibt ja nur noch Nintendo mit ihrer crap Switch. Mal sehen ob die Switch 2 endlich vernünftig wird.
Ergänzung ()

sifusanders schrieb:
bei 2+ Sceens geht der RAM tatsächlich nicht mehr runter und man ist bei 25W+
Anhang anzeigen 1311216

2x 1440p 144hz
das geht bei 2 Monitoren nimma, das ist technisch bedingt. Am besten den zweiten Monitor abdrehen, wenn Du ihn nicht brauchst.
 
Eli0t schrieb:
Für AMD aber doch wichtiger, dank Sony und XBOX...
Du magst Recht haben, dass der GCD Chiplet ein Testballon für XBox und PS ist, das weiß ich nicht.. Bisher hatten beide ja abgespekte Top of the Art HW.. Also ja es kann sein, dass eine Nächste XBox dann einenn echten IF hat den sich GPU und CPU teilen, wie es Fusion mal vorsah. Aber dazu fehlt mir dann ein PS6 Devkit um das zu falsifizieren.. Sollte AMD aber halt die AI, Wave64 Zuordnung in Griff kriegen, dann wird es eh spannend. Denn dann steht die 7900XT am Ende auch bei 80% einer 4090... Und wenn man sich dann die Flächen anschaut, wird es richtig spannend..

Ich finde spannend, dass dieser Treiber mal eben 20% im Low rausholt.. Wenn öfter Engines wie die IW9 oder eben die UE5 richtig angesprochen werden, dann könnten wir auch Obenrum nochmal bissl Zuwachs sehen.

Eli0t schrieb:
Du kannst es aber auch so wie Intel machen, man produziert die Karten im Februar, liefert sie im November aus und die Treiber sind immer noch kaputt.
Bei Intel sind die Treiber doch seit 2021 kaputt ;) Into the Odyssee passte da damals echt gut xD
 
Zuletzt bearbeitet:
Wie kommt TPU eigentlich auf solche Ergebnisse?

tpu efficiency.jpg


So schlimm kanns ja dann gar nicht sein.

Ich glaube echt das ist mittlerweile ziemliche Erbsenzählerei.

Die Performance im FPS Limit in 1440p haben sie ja schon im Griff. In 4K wirds vielleicht auch noch was. Aber da verbrauchen alle Karten viel.
 
  • Gefällt mir
Reaktionen: danyundsahne und Illithide
Eli0t schrieb:
Nein, das ist ein Trugschluss. Gamer sind nicht wichtiger, weil dann würde die Karten ja günstiger sein.
Natürlich sind Gamer wichtiger als vor dem Mining Boom. Ich meinte damit nicht, dass sie wichtiger als Server/Enterprise/HPC sind. Aber schau dir die Zahlen an. Nvidia braucht mehr Einnahmen, die kommen von den Gamern (zum Teil), von Minern kommt kaum noch was.

Was Nvidia versucht, ist die hohen Preise aus der Miningphase beizubehalten. Können sie auch wie man sieht. AMD ist einfach zu schwach.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Zer0Strat schrieb:
Was Nvidia versucht, ist die hohen Preise aus der Miningphase beizubehalten. Können sie auch wie man sieht. AMD ist einfach zu schwach.
Nö, Marketing wirkt eben... Ich meine NV hat im Vergleich zu vor Corona die Preise fast verdoppelt und ja leider auch Leute wie du liefern das Futter dafür. Nicht AMD ist zu Schwach, NV wird auch dann gekauft, wenn AMD gleichwertig ist. Vllt ein bissl mehr Objektivität für 2023?
Das machen Wolfgang und Jan dann doch besser, auch wenn man denen gerne mal das Gegenteil vorwirft.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, Illithide, Anon-525334 und eine weitere Person
Wenn dann die 7800 (XT) rauskommt, sind die Treiber auch fresh und laufen.
Dann kann man wohl ohne Probleme zugreifen :D
 
7800XT für Das Schnäppchen von 799€ oder wie :D Wären ja nur 150€ mehr als bei der 6800XT
Wir lernen hier ja: Was mehr leistet, darf auch mehr Kosten ^^
 
Hier hast du deine Objektivität. Hab die RX 6800 XT gerade eingebaut für ein paar Tests. Zwei Games gestartet, gleich ein fetter Bug. Bild bleibt schwarz.

Es tut mir leid, auch wenn das hart klingt, aber ich kann AMD einfach nicht empfehlen. Das hat nichts mit Bashen oder Antipathie zu tun. Die Firma an sich ist mir egal. Es basiert auf nüchternen Erfahrungen.

1673695993506.png
 
Hier stand Mist
 
Bulletchief schrieb:
Natürlich ein bisschen dramatisch formuliert, aber meines Erachtens ist ein Unding, dass ein Generation ineffizienter ist, wie die Vorgängergeneration.
Aber das war sie nur in Teillast. Die Effzienz in Vollast hat zwar nicht die Ankündigung von AMD erreicht, war aber besser als RDNA 2.

Nun hat wohl AMD ein paar Transistoren schlafen gelegt, die zuvor mit hoher Frequenz nichts gemacht haben.
Bulletchief schrieb:
Das darf schlicht und ergreifend nicht passieren.
Das absolut ärgerliche daran ist, dass AMD die Resourcen deutlich aufgestockt hat.

Im laufe des letzen Jahres wurden einiges an Optimierungen für alte Schnittstellen herausgehauen. Und dann gehen sie so in ein Release.

Eli0t schrieb:
nee, war zu früh wegen Investoren... da werden die US-Firmen mehr gebeutelt, wenn sie zugesagte Auslieferungstermine nicht einhalten und das wäre ja schlecht den Aktienkurs :)
Das ist eine mögliche Erklärung, aber ich glaube nicht so recht daran, dass man das allein wegen des Aktienkurses nicht verschoben hat.

AMD hat so oft gesagt 2022, dass eine Verschiebung auf 2023 ein Gesichtsverlust gewesen wäre. Außerdem gab es wohl einiges an Absprachen mit Zulieferern und Boardpartnern.
Eli0t schrieb:
Aber man kann hoffen, daß AMD daraus auch mal lernt und halt vorgeht und sagt: "Sorry, Treiber nicht fertig, kommt zwei Monate später...", aber im Nachhinein ist man hoffentlich klüger 😅
Das ist nicht die Lösung. AMD muss die Treiber rechtzeitig fertig haben.
Inzwischen hat AMD hier auch viele Entwickler. Deshalb greift die Erklärung von überlasteten Entwicklern nicht mehr.

Was es nun tatsächlich ausgelöst hat? Keine Ahnung.
Eli0t schrieb:
Hmm... Featuremäßig sehe ich nicht, daß RDNA3 irgendwas fehlt.
Fürs Gaming und aus Deiner Sichtweise mag das stimmen.
Man kann Grafikkarten auch für andere Dinge als Games einsetzen. Und viele tun es auch.
Eli0t schrieb:
Weil Sie noch immer nicht genug Leute für die Treiberprogrammierung haben.
Würde mich wundern, und wenn ist es die Schuld von AMD.
Eli0t schrieb:
Und im Unterschied zu nVidia wird für den Linux Kernel auch der Open Source Treiber entwickelt. Auf zwei Hochzeiten tanzen ist immer schwierig.
Aber dafür profitiert AMD unter Linux massiv von der Arbeit von Valve und anderen.

Früher waren die Linuxtreiber von AMD noch schlechter als die Windowstreiber. Heute sind sie was Gaming anbelangt gut. Das einzige was massiv kritisiert wird ist die schlechte Unterstützung von GPGPU.
Eli0t schrieb:
Und wer muß immer sofort die neuste Graka kaufen? Kann man da nicht auch zwei, drei Monate, dann hätte man die Probleme erst gar nicht :)
Einige Probleme entfallen tatsächlich.
Andere werden erst erkannt, wenn genügend Anwender die Hardware verwenden.
Eli0t schrieb:
Ich wiederhole es gerne nochmals, bis es alle verstehen: Gamer sind nVidia vollkommen egal 🤣
Das ist nicht richtig. Nvidia nimmt sehr gerne das Geld das die Gamer für Grafikkarten ausgeben. Aber darin unterscheidet sich Nvidia nicht von AMD und Intel.

Was viele nicht wahrnehmen (wollen) ist, dass Gaming GPUs nicht mehr das hauptsächliche Standbein von Nvidia sind.
Eli0t schrieb:
Investoren, Investoren... Aktienkurse fallen mehr, wenn eine Auslieferungszusage nicht eingehalten wird, als wenn die Reviews schlecht sind
Aber von den Investoren interessiert sich niemand wann die Gaming Grafikkarten von AMD auf den Markt kommen. Hier hat ein verpatztes Release, die schlechte Presse und schlechte Absatzzahlen schwerwiegendere Auswirkungen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
Es gibt dazu sogar eine News.. Ja es ist Teil der Medienkompetenz vorher sich kurz zu informieren und nicht einfach hier etwas reinzurufen.. Und JA es ist gerechtfertigte Kritik und weder war der Ton unangemessen, noch war er von oben Herab.
Nochmal: Wir mutmaßen und der einzige "Beweis" sind 48 defekte Karten, wie quasi durch alles sterben können.. Damit ein Die bricht, reicht auch ein falsch zusammengebauter Wakü. Behaupten kann man vieles am Ende. Ich habe ein massives Problem, wenn Unwahrheiten verbreitet werden.
Wow danke. Ich will mich hier nicht so angehen lassen müssen, dann verzichte ich eben auf das Forum und die CB-Seite. Dass ist genau der Ton, den ich meine. Da vergeht mir jegliche Lust an der aktiven Teilnahme bei Themen. Lies bitte die Beiträge der Leute richtig durch, bevor du dir anmaßt, was die Leser/Teilnehmer hier bereits gemacht haben oder machen oder welche angeblichen Kompetenzen wer hat und wert nicht.
Ich muss mich auch nicht entschuldigen oder erklären, warum ich aus Versehen mal was übersehen habe oder dass ich sage "ALLE" AMD Karten sind nun kaputt und doomed oder irgendwelche Unwahrheiten. Nevermind.
 
  • Gefällt mir
Reaktionen: karl_laschnikow und Zer0Strat
hippiemanuide schrieb:
Wow danke. Ich will mich hier nicht so angehen lassen müssen, dann verzichte ich eben auf das Forum und die CB-Seite.
Kritik muss man aushalten können... Sorry aber ist halt so. Ich habe dich auch mit keinem Wort beleidigt. Also alles gut.
 
  • Gefällt mir
Reaktionen: Orok91, Illithide und Anon-525334
Eli0t schrieb:
Doch, wenn die Karte 20% besser performed, dann wird die Effizienz auch verbessert.
Das mag für den Gaming-Betrieb gelten, nicht aber für den Idle-, Multi-Monitor- oder Teillastbetrieb (YouTube etc.). Zumal eine 20% bessere Gaming Performance nur durch Treiberoptimierung recht illusorisch erscheint. Mir ist bewusst, dass einige Tech-tuber daran glauben (MLID bspw.), aber das glaube ich erst wenn ich es sehe.
 
Zer0Strat schrieb:
Natürlich sind Gamer wichtiger als vor dem Mining Boom. Ich meinte damit nicht, dass sie wichtiger als Server/Enterprise/HPC sind. Aber schau dir die Zahlen an. Nvidia braucht mehr Einnahmen, die kommen von den Gamern (zum Teil), von Minern kommt kaum noch was.

Was Nvidia versucht, ist die hohen Preise aus der Miningphase beizubehalten. Können sie auch wie man sieht. AMD ist einfach zu schwach.
Die, die es sich leisten wollen, kaufen eine 4090, die denen die Preise zu hoch sind, kaufen gar nix.
Ergo wird die Gaming Sparte wieder einbrechen... Nvidia hat den Bogen nunmal überspannt... NIcht zu vergessen, daß das auch nicht die Ausrichtung vom Lederjackenmann war für die Firma in der Zukunft. Nicht umsonst wollten sie ARM kaufen... Das große Geld holst halt nicht bei ein paar "Gamern".
 
  • Gefällt mir
Reaktionen: Illithide
Eli0t schrieb:
Ergo wird die Gaming Sparte wieder einbrechen... Nvidia hat den Bogen nunmal überspannt...
Um ehrlich zu sein, ich hoffe, dass Nvidia ihre Preispolitik um die Ohren fliegt. Ich bin alles anders als begeistert. Aber dann schaue ich rüber zu AMD, die ja eine "Gegenkraft" darstellen sollten und dann verliere ich jede Hoffnung.
 
  • Gefällt mir
Reaktionen: karl_laschnikow
Zurück
Oben