Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Ragnarök88 schrieb:
Nvidia liegt diese Gen (4090Ti) 50 bis 100% vorne
bitte mal den Link zum 4090TI test zeigen. Auf die warte ich nämlich. 100% mehr als ne 7900XTX wären mal ne Hausnummer
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, iron_monkey, Wowka_24 und 3 andere
Sunjy Kamikaze schrieb:
Das ist glaub ich wirklich nur 5% der ganzen nvidia Kunden in der riege.

Ich mache für meine Gilden/Corps mitlerweile immer mal ein wenig Hardware beratung weil die meisten ja wirklich gar keinen Plan haben was man so kaufen soll und wenn man fragt wieso sie den eine Nvidia haben wollen kommt wirklich sehr oft.

Ich hab gehört AMD is scheiße. Oder AMD ist scheiße obwohl sie nie eine hatten.
Diese Punkte habe ich mit Absicht weggelassen. Ich habe nur bei einigen Gelegenheiten festgestellt dass viele alles außer Nvidia ignorieren.

Viele wollen spielen und kennen sich mit der Hardware nicht aus. Wenn denen dann von jemanden dem sie vertrauen erzählt wird, es muss unbedingt Nvidia sein, dann handeln sie entsprechend.

Auf der anderen Seite muss man auch ganz klar sagen, dass der Weg mit Nvidia im Zweifel immer einfacher ist.

Sunjy Kamikaze schrieb:
Ich Persönlich bin da eher AMD geneigt einfach weil ich den CEO Captain Lederjacke total unsymphatisch finde und mit Nvidia schon dick auf die freße gefallen bin (970 3,5GB).
Es ist nun Mal so, dass sich Nvidia bewusst entschieden hat, dass Jensen Huang Nvidia nach außen vertritt. So wie ich es mitbekommen macht er dies stärker als Lisa Su bei AMD. Und bescheidenes Auftreten istnicht sein Ding.

Auf die Nase gefallen ist Nvidia eigentlich nie. Auch nicht mit der 970.
Sunjy Kamikaze schrieb:
Das einzige was für AMD noch was werden könnte sind diese Ominösen Cu´s oder wie sich das nennt die noch gar nicht genutzt werden und keiner weiß wofür sie sind.
Ich weiß nicht recht was Du meinst, AMD hat im Deep Dive Foliensatz die CUs auführlich vorgestellt.
Da ist nichts ominös. Die ISA-Dokumentation ist draußen und es gibt Blogposts zu den neuen Matrixfunktionen.

Die größte Änderung an den CUs sind die Dual Issue Befehle. Deshalb habe hat sich die theoretische Performance von Navi 31 mehr als verdoppelt. Aber es ist eine theoretische Performance die sich nicht in allen Programme umsetzen lässt.

Hier erwarten einige dass da noch was größeres kommt. Wie ich schon öfters geschrieben habe bin ich skeptisch dass sich in dieser Beziehung noch etwas größeres tut. Aber manchmal freut man sich wenn man falsch liegt.

Sunjy Kamikaze schrieb:
Also AMD. Wenn ihr 25% mehr Leistung overall durchdrücken könnt wäre jetzt der beste Zeitpunkt XD.
Auch schon 10 % mehr im Durchschnitt wären wunderbar.

Aber in Realität ist es oft so, dass man einzelne Funktionen bzw. Codefragmente um Faktor zwei und höher beschleunigt. Am Anfang des Tunings bringt das unglaublich viel, weil die optimierten Funktionen bzw. Codefragmente meist auch entsprechend häufig aufgerufen werden. Aber je weiter das Tuning voranschreitet, desto seltener werden die optimierten Funktionen bzw. Codefragmente ausgeführt. Und dann kann es sein dass eine Performancesteigerung um den Faktor 10 sich insgesamt kaum auswirkt, oder dass man sehr viele Stellen optimieren muss bis sich etwas bemerkbares.
 
  • Gefällt mir
Reaktionen: Rockstar85, Mcr-King und Sunjy Kamikaze
Czk666 schrieb:

1. Das es Spielabhängig ist , kann aber auch nicht wirklich sein. Ist ja bei Gsync auch nicht der Fall, da läuft es egal wo...

2. es geht um Vsync in zusammenhang mit Tripple Buffering, das benötige ich nun mal und das übernimmt der AMD Treiber überhaupt nicht ingame.

3. Sonst laufen die fps über 144 (bei 144hz) und dann bekam ich heftige Ruckler, mit dem Limiter war es besser aber dennoch war immer ein Frame nicht vorhanden weil man den limiter auf 143 stellen musste, dazu gibt es auch etliche Threads wenn man bei google mal sucht. (alt bekanntes Problem)

4. Der Verbrauch im Idle war fast doppelt so hoch wie mit meiner 1070GTX

5. Ja den StressTest, auch wenn du das nicht benötigst ist es trotzdem schlecht das er nicht funktioniert so wie er soll und das zeigt eben wie schlampig AMD Programmiert..

p.s.
ja ich bin froh das es AMD gibt und wie schon vorher erwähnt hoffe ich auch als Technikfan das sich das bei AMD auch mal bessert in den nächsten Jahren, eine Monopol-Stellung seitens NVIDIA wäre natürlich noch schlimmer, sehe ich genauso!
Ergänzung ()

Unti schrieb:

so ein quatsch was du erzählst sorry

schon alleine punkt 1. , GSYNC funktioniert tadellos bei nvidia, habe nicht ein problem seit der aktivierung im treiber.

2. Vsync gehört nicht immer aus, kommt immer darauf an was man machen möchte, gut das du weißt was ich damit machen möchte ;) bist wohl hellseher...

3. 114fps bei 144hz ? da würde ich doch etliche bilder verlieren, genauso sah es bei einem limiter von 143fps aus, dauernd war ein bild fehlend und diesen miniruckler merke ich extrem, limiter 144fps ging noch schlimmer aus..... das ist ein bekanntes problem bei AMD, siehe google einträge und co. , wieso zur hölle muss man überhaupt nen verkackten limiter setzen, bei nvidia muss man das ja auch nicht und es läuft wie butter.

4. lasse ich mal aus.

5. es Interessiert in sofern, da man dort schon merkt wie schlampig das alles programmiert ist, denk mal drüber nach wenn man sogar nen einfachen benchmark nicht mal schafft ordentlich rein zu programmmieren........ warum bauen sie den mist dann überhaupt ein? Komplette Banane aus Kundensicht und es interessiert da auch nicht ob du den benutzen willst oder nicht, baut mal Features ein erwartet der ein oder andere Kunde eben das es FUNKTIONIERT!
 
Zuletzt bearbeitet von einem Moderator:
ETI1120 schrieb:
Ich weiß nicht recht was Du meinst, AMD hat im Deep Dive Foliensatz die CUs auführlich vorgestellt.
Da ist nichts ominös. Die ISA-Dokumentation ist draußen und es gibt Blogposts zu den neuen Matrixfunktionen.

Die größte Änderung an den CUs sind die Dual Issue Befehle. Deshalb habe hat sich die theoretische Performance von Navi 31 mehr als verdoppelt. Aber es ist eine theoretische Performance die sich nicht in allen Programme umsetzen lässt.

Hier erwarten einige dass da noch was größeres kommt. Wie ich schon öfters geschrieben habe bin ich skeptisch dass sich in dieser Beziehung noch etwas größeres tut. Aber manchmal freut man sich wenn man falsch liegt.

Ist es bei NV anders? Der Ansatz ist der Gleiche, nur zur Info!
 
  • Gefällt mir
Reaktionen: Rockstar85
gedi schrieb:
Echt? Was macht Ampere in einem AMD-Thread? Und ich habe mir den Post nochmals durchgelesen und für mich geht es da eindeutig um eine 7900!
Keine Ahnung was du gelesen hast, selbst in dem Post, den er direkt zitiert hat, ging es um Nvidia.
Es ging darum, dass Nvidia das Effizienzproblem von Ampere im FPS Limit bis heute nicht durch Treiberupdates fixen konnte

Zitatverlauf
Post #19
Bei Nvidia wurde der hohe Verbrauch von Ampere im FPS Limit bis heute nicht behoben.
Also lieber zeitnah per Treiber als nie.
Antwort darauf in Post #338
Ich wiederhole es gerne nochmals, bis es alle verstehen: Gamer sind nVidia vollkommen egal 🤣
Und antwort darauf in besagtem Post #339
Joar, Mining ist weggebrochen. Gamer sind wieder wichtiger. ^^[..]
Das mit dem Effizienzproblem mit FPS Limiter haben sie nie behoben. Ist auch die Frage, ob das machbar ist mit Treiberupdates oder ob das ein grundsätzliches Problem der Architektur ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: m.obermueller
PTS schrieb:
schon alleine punkt 1. , GSYNC funktioniert tadellos bei nvidia, habe nicht ein problem seit der aktivierung im treiber.
Nicht ganz es kam leider manchmal zu Fehlern mit HDR habe ich selbst gehabt nervig und gefühlt hat es ewig gedauert bis sie die beseitigt haben.
Ergänzung ()

Taxxor schrieb:
Es ging darum, dass Nvidia das Effizienzproblem von Ampere im FPS Limit bis heute nicht durch Treiberupdates fixen konnte
Was interessant ist bei RTX40er ging es doch auch.
 
Mcr-King schrieb:
Was interessant ist bei RTX40er ging es doch auch.
Weswegen es wohl eher auf ein Architekturproblem hindeutet.

Ich bin mal gespannt in wie weit AMD hier noch mit dem Treiber optimieren kann. Die 1440p Werte sehen ja schon mal ganz brauchbar aus, auch wenn eine 6800 immer noch genau so viel bei 144FPS verbraucht, da müsste eigentlich auch noch mal mehr gehen
 
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
Nicht ganz es kam leider manchmal zu Fehlern mit HDR habe ich selbst gehabt nervig und gefühlt hat es ewig gedauert bis sie die beseitigt haben.
Ergänzung ()


Was interessant ist bei RTX40er ging es doch auch.

NV kann kein HDR ohne Chromasampling!
 
  • Gefällt mir
Reaktionen: Mcr-King
bitte löschen
 
Zuletzt bearbeitet:
Eli0t schrieb:
Das kümmert Dich, aber der Masse vor allem über dem Ozean ist das vollkommen bowidl.
Idle haut ja schon halbwegs hin, also ich bin zuversichtlich, daß sie das halbwegs in den Griff bekommen.
Ich habe nie gesagt, dass es mich kümmert, sondern nur, dass AMD wohl keine 20% mehr Performance aus den Treibern kitzeln kann und, dass größere Effizienzsteigerungen unwahrscheinlicher werden.
Wenn ich aber Interesse an Grafikkarten im Preisbereich >1000€ hätte, würde es mich in der Tat kümmern 😄. Dann will ich nämlich ein ausgereiftes Produkt für mein Geld und kein dahingerotztes Stück HW, dass vielleicht in einem halben Jahr meinen Ansprüchen genügt.
 
Chismon schrieb:
Nur wurde es damit aber verglichen und das duerfte wohl auch ein Grund sein (neben dem schleppenden Verkauf von den teuren Ada Locelace Karten), wieso DLSS3 nur unauffaellig vermarktet wird, weil es den Anspruechen (von nVidia selbst auch) noch nicht wirklich genuegt (Erinnerungen an DLSS1 werden wach).

Uebrigens gibt es ja, wie Du weisst, noch kein FG fuer AMD GPUs, es wurde mit FSR3 lediglich in Aussicht gestellt (ob und was da kommt, kann man ausserhalb von AMD/RTG wohl auch nicht wirklich einschaetzen) und somit passt das nicht wirklich als Vergleichsbasis/-stufe.

Wenn ein Feature ein anderes (Reflex) kompromittiert oder verschlimmbessert bzw. nicht an dieses heranreicht, dann ist das natuerlich nicht als Vorteil und ausgereift zu bezeichnen und darum geht es hier doch.

Da sollte man nicht zum Rosinenpicker avancieren bzgl. der Bewertung von DLSS3 und Reflex ausschliessen, welches zum propriertaeren nVidia Katalog gehoert und eben kein allgemeiner Standard bei GPUs ist.
AMD hatte zuerst eine Reduzierung des Lags. Nvidia ist nachgezogen.
Ich habe es mittlerweile aufgegeben, Fakten aufzuzählen, um Leute zu informieren die es gar nicht wissen wollen und es gleich wieder vergessen, weil sie sonst nicht mehr so gut über die eigene Kaufentscheidung sprechen
können.

Es gab viele Threads in denen sich schon darüber lustig gemacht wurde, dass jetzt wohl keiner mehr mit nvidia shooter spielen kann. Jetzt sieht man in jedem Thread das Nvidia Refelx hat, ganz toll und einzigartig und Erster sowieso....
Einfach nicht ernst nehmen und mit Leuten sprechen die echtes Interesse an der Hardware haben, statt nur an sich selbst.
Viele Grüße
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey, Mcr-King, Chismon und eine weitere Person
Unti schrieb:
Genau das wird auch hier von vielen im Forum gepredigt....
Es geht bei der ganzen Sache auch massiv um Emotionen. Natürlich gibt es auch sachliche Argumente. Aber oft wechseln die Argumente die Seite. Und viele Argumente sind vorgeschoben

Im Grunde geht es um das Gewinner Team und die Underdogs.

Und wir haben hier im Forum das Problem dass schlechte Gewinner auf schlechte Verlierer treffen. Und ganz ehrlich schlechte Gewinner sind viel schlimmer.
Unti schrieb:
Wieso weiß ich nicht.
Weil sie die Sache nicht zu ende denken.

Auf die Idee, dass es ihr Vorteil ist, wenn sie sich an einer tollen Karte erfeuen und andere die potentielle Konkurrenz am Leben erhalten, kommen sie einfach nicht.

Unti schrieb:
Fairerweise muss ich für mich sagen, ich hatte in den letzten 15 Jahren schon einige ATi/AMD Karten und ich hab immer böse Erfahrungen mit gemacht.
Aber das waren keine Fehler, die nun wirklich an der Hardware selbst zu suchen gewesen wären.
Ich denke die Sache hat mehrere Seiten.

Schon ATI hat bei den Treibern nicht geglänzt und nach der Übernahme durch AMD wurde es auch nicht besser. Eher im Gegenteil. Die tiefe Krise die AMD bis 2017 durchgemacht hat, hinterließ auch Spuren in der Treiberentwicklung.

So wie ich gehört habe, hat AMD nach 2015 die Treiberentwicklung neu organisiert. Aber es hat eben gedauert bis sich die Ergebnisse gezeigt haben. Merklich mehr Leute wurden es wohl erst nach 2020. Dass RDNA große Umbauarbeiten am Treiber notwendig macht, hat eher nicht geholfen.

Bei Nvidia lief das ganze kontinuierlicher ab. Und den Vorteil einer sauberen Codebasis hat Nvidia immer gehegt und gepflegt.

Abgesehen von den Treibern hat Nvidia die Gamedeveloper auch besser als AMD supported. Hinzu kommt, dass wohl auch die Gamedeveloper eher mit Nvidia-Karten arbeiten. Natürlich wurde auch mit AMD-Karten getestet. Aber es wäre unter den Gegebenheiten schon seltsam, wenn die Testabdeckung bei AMD- und Nvidia-Karten gleich wäre. Und durch den Support von Nvidia war es auch einfacher die Probleme zu fixen die frühzeitig mit Nvidiakarten erkannt wurden.

Das Resultat ist, dass Probleme eher bei AMD- als bei Nvidia-Karten auftreten.

Unti schrieb:
Tatsächlich hab ich den Test abgewartet und verglichen, bis das mit dem Verbrauch/Effizienz aufkaum wäre ich sogar eher zu AMD mit einer 7900XTX gegangen als einer 4080, da ich so arg viel RT Games gar nicht spiele.
Die Effizienz ist etwas, das mir sehr auf den Magen geschlagen ist. Es gibt einige Interviews wo AMD die Effizienz von RDNA 3 anpreist. Auch bei der Vorstellung wurde ein riesen Terz und die ach so tolle Effizienz gemacht. Und die 54 % Effizienzsteigerung werden bis heute gesucht.

Mich haben die hohen Shaderzahlen zu Navi 31 die genannt wurden, schon verwundert. Aber seit dem Artikel von Angstromics hatte ich massive Zweifel. Man hofft halt dass die Bedenken grundlos sind. Aber leider ...

Und wieder hat AMD IMO versucht die zu geringe Performance mit mehr Power zu pushen. Die einfachste und sicherste Methode die Effizienz zu senken.

Unti schrieb:
Man muss ihm aber eines lassen, er hat noch Ahnung von dem Kram.
...
Ich finde ihn tatsächlich gar nicht so schlimm, er bleibt sich wenigstens seit Jahren treu, so ist er eben, kann man mögen, muss man aber nicht^^.
Meiner Meinung nach hat er eine Erfolgsgeschichte geprägt, also kann er auch selbstbewusst auftreten.

Und dann kommt es eben auf die eigene Grundeinstellung zu Nvidia an, ob man es als selbstbewusst oder arrogant wahrnimmt

Unti schrieb:
Also ganz ehrlich, die Treiberthematik wie sie hier diskutiert wird ist mir mit meiner noch vor 1 Monat in Betrieb befindlichen 6900XT nicht aufgefallen bzw. mir sind eigentlich generell wenige Bugs aufgefallen.
Es sind eben Geschichten die sich ewig halten.

Da wird AMD einiges aufbieten müssen, dies loswerden.

Und da hilft es nicht gerade wie das Release 7900XTX/XT gelaufen ist.
 
  • Gefällt mir
Reaktionen: iron_monkey, Czk666, Sun-Berg und eine weitere Person
Ich bin damals von AMD zu Nvidia gewechselt aufgrund der Treiber. Es gab irgendwann mal ein Treiberupdate bei dem irgendwas an Wattman rumgepfuscht wurde und ich nach dem Neustart plötzlich Artefakte auf dem Windows-Desktop hatte.

AMD ist wohl davon ausgegangen das es keine Fabrik übertakteten Grafikkarten gibt oder ähnliches.^^

Ich meine die Nvidia-Treiber sind natürlich auch nicht überragend aber im Vergleich zu AMD sind sie um einiges besser, alleine was die Einstellungen betrifft.

Wobei das ist jetzt auch schon länger her, das war zu dem Zeitpunkt als die den Entwickler von ich glaube ATI Tray Tools verpflichtet haben und der dann der Hauptverantwortliche für die Treiber war, also es kann natürlich mittlerweile viel besser sein, ist ja schon ewig her.^^

Und ich bin auch kein von Fan von Nvidia, die Firmenpolitik speziell gegen AMD damals war schon hart an der Grenze der Illegalität, aber wenn ich danach gehen würde, dann dürfte ich auch kein Windows nutzen sondern müsste Linux bevorzugen, mach ich ja auch nicht.^^
 
Lamaan schrieb:
AMD hatte zuerst eine Reduzierung des Lags. Nvidia ist nachgezogen.
Ich habe es mittlerweile aufgegeben, Fakten aufzuzählen, um Leute zu informieren die es gar nicht wissen wollen und es gleich wieder vergessen, weil sie sonst nicht mehr so gut über die eigene Kaufentscheidung sprechen
können.
AMD hat bis heute nichts, was mit Reflex vergleichbar wäre.

Das bräuchten sie aber spätestens, wenn sie FSR 3 bringen.
Radeon Boost und Radeon Anti-Lag bringen da jedenfalls nichts und das neu angekündigte "HYPR-RX" ist auch nur eine One-Click Option, die mehrere dieser bereits vorhandenen Features gleichzeitig aktiviert.

Dazu gehört dann auch RSR, nach dem gleichen Motto wie Radeon Boost: Wir senken die Auflösung, verschlechtern damit die Bildqualität, bekommen dafür mehr FPS und mehr FPS bedeuten gleichtzeitig weniger Input-Lag.
 
  • Gefällt mir
Reaktionen: Unti
@Taxxor

War FSR3 das AMD Pendant zu Frame Generation, oder ist es nur ein iterativer Schritt zu FSR2.0?

Für mich ist Frame Generation unfassbar, wirklich. Ich wünsche mir für jeden AMD User, dass er sowas mal in Action erleben darf.

Ich sitze seit Stunden vorm Flugsimulator 2020 und bin nur sprachlos.

Statt verdreckten 30 FPS am Boden, komplett im CPU Limit bei 40% GPU Load, sind es jetzt 80-90 FPS. In der Luft mit 4K Ultra Preset sind es mit Framelimiter konstant 115 FPS bei 330W. Das ist sowas von geil. Selbst mit einer Auflösung von 6143x3455 Pixeln, sind es 70 FPS, butterweich, gestochen scharf bei 440W. Aber überleg Dir mal die Auflösung....und das mit 70 FPS im Hardware Killer FS2020...krank.

Hoffentlich schafft das FSR 3.0 auch. Das wäre für die 7er Serie ein Segen.
 

Anhänge

  • IMG_20230114_222214.jpg
    IMG_20230114_222214.jpg
    1,7 MB · Aufrufe: 179
  • Gefällt mir
Reaktionen: Meister1982, Sun-Berg und Unti
t3chn0 schrieb:
War FSR3 das AMD Pendant zu Frame Generation,
Yes.

t3chn0 schrieb:
Für mich ist Frame Generation unfassbar, wirklich. Ich wünsche mir für jeden AMD User, dass er sowas mal in Action erleben darf.
Es ist richtig geil, habe es in The Witcher 3 RTX ausprobiert.
Geil ja, ohne DLSS und Reflex macht das aber keinen Sinn, sprich das Spiel muss beides können, der FS kann das ja zum Glück.

Aber ohne Reflex wäre der Inputlag viel zu groß.
FG wird die nächsten Jahre aber massiv was bringen.
Bin auch von 50 FPS 4K RTX Extreme Preset direkt auf 110FPS gestiegen (in The Witcher).
Bringt dir aber nicht viel, wenn das Spiel stuttert^^.
 
Unti schrieb:
Geil ja, ohne DLSS und Reflex macht das aber keinen Sinn, sprich das Spiel muss beides können
Reflex ist bei Frame Generation immer zwingend dabei.
Und Frame Generation ist ein Feature von DLSS 3, somit ist auch automatisch der Upscaler mit dabei.

Unti schrieb:
Bringt dir aber nicht viel, wenn das Spiel stuttert^^.
Kommt drauf an warum es das tut. Wenn ein CPU limit der Grund ist, kann es schon sehr viel bringen, weil die FPS ja generell verdoppelt sind und ein hin und her springen von z.B. 40 und 50 FPS deutlicher auffällt, als mit Frame Generation dann ein Springen zwischen 80 und 100 FPS
 
Taxxor schrieb:
Reflex ist bei Frame Generation immer zwingend dabei.
Und Frame Generation ist ein Feature von DLSS 3, somit ist auch automatisch der Upscaler mit dabei.
Theoretisch könnte FG aber auch ohne Reflex ausgerollt werden per Game, da aber eigentlich notwendig wird das nie passieren.
Natürlich, aber man kann z.B. in manchen Games FG auch ohne DLSS anschalten (zumindest bei The Witcher 3).

Taxxor schrieb:
Kommt drauf an warum es das tut. Wenn ein CPU limit der Grund ist,
Eher nicht, der Patch hat nur einiges in dem Game zerstört... das lief davor besser... erst seit dem Next-Gen Update so... ist halt Pfusch, wie so oft... da hat jeder das Problem, auch Leute ohne RT Möglichkeit und kein Upscaling.... ist halt so....
Naja, anderes Thema^^.
 
Unti schrieb:
Natürlich, aber man kann z.B. in manchen Games FG auch ohne DLSS anschalten (zumindest bei The Witcher 3).
FG ist Teil von DLSS 3.
Was du meinst ist die Upscaling Komponente von DLSS im Speziellen.
Und ja man kann FG auch ohne Upscaling nutzen, warum sollte man das auch nicht können?
Düften auch viele so machen, weil man dann weiterhin in nativer Auflösung unterwegs ist und trotzdem mehr FPS hat.
 
Zurück
Oben