Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

lamda schrieb:
Die Leistungsaufnahme in spielen ist ja fast egal.
Aber die Leistungsaufnahme in leerlaufe ist immer noch viel zu hoch!

Mein Laptop braucht unter last quasi weniger wie diese Karten im leerlauft.
Bei den Strompreisen lohnt es sich bald ein zweites System zu haben für etwas Internet browsen und YouTube schauen.

Eigentlich bräuchte man ein Smartphone im PC für Idle. Die Dinger leisten mittlerweile richtig viel und verbrauch bei einfachen Sachen wie Surfen und Co. quasi nichts.
 
  • Gefällt mir
Reaktionen: ComputerJunge und drago-museweni
Taxxor schrieb:
Latenzproblem angeführt, welches defacto nicht existiert, solange man den Gesamt GPU Markt betrachtet und nicht nur mit Nvidia+Reflex vergleicht.
Nur wurde es damit aber verglichen und das duerfte wohl auch ein Grund sein (neben dem schleppenden Verkauf von den teuren Ada Locelace Karten), wieso DLSS3 nur unauffaellig vermarktet wird, weil es den Anspruechen (von nVidia selbst auch) noch nicht wirklich genuegt (Erinnerungen an DLSS1 werden wach).

Uebrigens gibt es ja, wie Du weisst, noch kein FG fuer AMD GPUs, es wurde mit FSR3 lediglich in Aussicht gestellt (ob und was da kommt, kann man ausserhalb von AMD/RTG wohl auch nicht wirklich einschaetzen) und somit passt das nicht wirklich als Vergleichsbasis/-stufe.

Wenn ein Feature ein anderes (Reflex) kompromittiert oder verschlimmbessert bzw. nicht an dieses heranreicht, dann ist das natuerlich nicht als Vorteil und ausgereift zu bezeichnen und darum geht es hier doch.

Da sollte man nicht zum Rosinenpicker avancieren bzgl. der Bewertung von DLSS3 und Reflex ausschliessen, welches zum propriertaeren nVidia Katalog gehoert und eben kein allgemeiner Standard bei GPUs ist.
 
Chismon schrieb:
Die Probleme sind die gleichen und beide sich Entwickler von Grafikkartenchips, daher ist das auch mehr als passend ... ein "Ihr" gibt es daher nicht und wenn Du andere Meinungen nicht tolerieren oder verkraften kannst, bist Du vielleicht in einem Forum falsch aufgehoben ;).
Das du die Probleme, besser gesagt die Tragweite als „Gleich“ bezeichnest, ist nicht nur dummes Zeug sondern zeigt wieder total den typischen AMD Fan Whataboutism.
Aber wir kennen euch ja…..
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Erfreulich. War auch abzusehen, dass AMD da nachbessert. Gibt also nichts zu bereuen für alle Frühkäufer. Jetzt kann man auch guten Gewissens zur 7900 XTX statt 4080 greifen. Im Falle der 7900XT sieht die 4070ti gar kein Land mehr.
 
  • Gefällt mir
Reaktionen: Legalev
DerRico schrieb:
Richtig ist, dass der 4er ein aufgebohrter 5er ist. Gem. TSMC ist der Vorteil der des N4-Prozesses bei der Energieffizienz aber bei satten 22%. Das ist nicht doch schon recht erheblich.
N4 der optimierte N5 hat aber mit den 4N (for Nvidia) nicht viel zu tun.
Sind zwei paar Schuhe. 4N ist ein für NV optimierter N5, sonst nix.
 
CrustiCroc schrieb:
Aber wir kennen euch ja…..
Wer ist den "wir"? und wen genau kennt ihr denn so?
Nur mal aus Neugier ;)

Btt:
Da der Verbrauch jetzt ja keinen großen unterschied mehr macht ist das Thema doch eigentlich durch.

Viel mehr würden mich jetzt dann noch diverse Monitor Configs bis hin zu 5 stück interessieren.
 
  • Gefällt mir
Reaktionen: Chismon
Taxxor schrieb:
Und CB hatte hier auch selbst zwischen Reflex und FG+Reflex nur 15ms Unterschied gemessen.
also schlechter! ... entspricht ca. einer Verdopplung bei 60fps=16ms

Was sollen dann mehr "Fps" nützen, da kann ich auch nen 120Hz-Moni nehmen der die Ausgabe allein verdoppelt.

CB sollte evtl. mal in Games die Frametimes in ms angeben, damit mehr Leser sehen, was der Mond wiegt.
 
Ayo34 schrieb:
Eigentlich bräuchte man ein Smartphone im PC für Idle. Die Dinger leisten mittlerweile richtig viel und verbrauch bei einfachen Sachen wie Surfen und Co. quasi nichts.

Was hindert dich dran dein Smartphone an deinen Monitor zu schließen?
 
Input Lag Input Lag... wenn ich das schon lese. Das ist maximal messbar sonst nichts. Kann mir keiner erzählen das der unterschied bei irgendjemanden etwas bewirkt. Alles Marketing geschwurbel. Das einzige was Reflex bewirkt ist eine höhere Stromaufnahme. Multiplayer übers Internet spielen und über Input Lag fabulieren ist einfach beknackt.
 
  • Gefällt mir
Reaktionen: elvis2k1
Taxxor schrieb:
Gerade beim Thema Latenz geht es auch nicht nur darum, was man an nackten Zahlen nachmessen kann, sondern auch darum, wie man es persönlich empfindet.
Gut, dann sind FSR und DLSS ja auch komplett gleichwertig anzusehen unter dem Gesichtspunkt individueller Empfindung, auch wenn die Fachpresse glaubt DLSS mit Standbildern als marginal besser beurteilen zu muessen als FSR, wenn Unterscheide im eigentlichen spielen eigentlich nicht nachgeweisen werden koenen.

Wenn Du es so weit spannen moechtest, kannst Du RT-RT ja auch noch gleich mit in den Katalog aufnehmen, denn da gibt es auch einige, die behaupten, dass RT-RT fuer sie nicht nachweislich wahrnehmbar ist oder gar eine Verschlimmbesserung gegeneuber der Raster-Darstellung ist.

So kann man - wenn man denn will - natuerlich alles relativieren (auch die Benchmarkbalken bei Tests 5-10% mehr oder weniger Frames machen i.d.R. auch keine spuerbaren Unterschied in Spielen aus, wie so dann noch die teurere Grafikkarte kaufen?), aber das duerfte wohl auch nicht im Interesse Deiner und der Argumentation von @Zer0Strat sein ;).

Das "Argument from Authority" wird uebrigens auch dann als Trugschluss dargestellt, wenn einem die eigenen Argumente ausgehen :).
 
Zuletzt bearbeitet:
GerryB schrieb:
Und trotzdem noch 35ms besser als man ohne Reflex, also mit einer AMD Karte oder eben in einem Spiel welches Reflex und FG erst gar nicht bietet, unterwegs wäre.
GerryB schrieb:
Was sollen dann mehr "Fps" nützen

In besagtem Test stehen 28FPS bei 71ms gegen 50PS bei 86ms, der Sprung von 28 auf 50FPS nützt dir definitiv mehr als dir die Latenzsteigerung von 71 auf 86ms schadet, zumal du ohne Reflex sowieso mit 29FPS bei 120ms unterwegs wärst.
 
Zuletzt bearbeitet:
@Chismon es geht hier um den Treiber der 7900XTX. Niemand interessiert sich für deinen Inputlag-Gebashe gegen Nvidia.
Komm zum Thema zurück oder eröffne deinen eigenen Thread in dem du über Nvidia mit deinesgleichen rumheulen kannst.

@Topic:
Die Meldung ist erfreulich und war vorauszusehen. Es werden garantiert auch noch weitere Optimierungen seitens AMD folgen, aber ich erwarte hier keine großen Sprünge.
 
  • Gefällt mir
Reaktionen: elvis2k1
CrustiCroc schrieb:
Aber wir kennen euch ja…..
Wirklich, ist das so :D (?), Du weisst also wo ich wohne, was ich so mache, etc. ... dann erzaehl' 'mal bitte.

Wenn Du nicht auf vernuenftiger Basis diskutieren moechtest, dann lassen wird das eben, denn das bringt nichst und mir ist dazu meine Zeit zu schade ... dann lasse ich Dich mit Eurem Wissen um mich allein und wuensche noch ein schoenes Wochenende.
 
Danke für den Test, ich finde die Test mit Leerlauf und Fensterbewegung und Videowiedergabe find ich wirklich gut, wenn es nicht zuviel Aufwand ist wäre es schön wenn das mit jeweils 4k 60Hz und einmal WQHD 144Hz gemacht werden könnte, ich war erst verwirrt wie im Leerlauf der Verbrauch höher sein kann als wenn man etwas am PC macht und sei es nur Fenster schieben. Da erkennt man zumindest auch gleich welchen EInfluss die Wiederholungsrate ggf. hat.
 
Taxxor schrieb:
Und trotzdem noch 35ms besser als man ohne Reflex, also mit einer AMD Karte unterwegs wäre
Sowas wird wohl vom Game abhängen.
Taxxor schrieb:
In besagtem Test stehen 28FPS bei 71ms gegen 50PS bei 86ms, der Sprung von 28 auf 50FPS nützt dir definitiv mehr als dir die Latenzsteigerung von 71 auf 86ms schadet, zumal du ohne Reflex sowieso mit 28FPS bei 120ms unterwegs wärst.
Du redest Dir auch jeden Müll schön.

PCGH hatte u.A. den Eindruck das Texturen wabbern.
Kann mir net vorstellen, das gepimpte 28fps so fehlerfrei laufen.
 
GerryB schrieb:
Kann mir net vorstellen, das gepimpte 28fps so fehlerfrei laufen.
So gut wird es auch nicht laufen, aber besser als normale 28FPS ^^
Es werden auch 40-60FPS als Ausgangsbidrate empfohlen, dann geht man eben erst mit DLSS Quality auf besagte 40+ und haut sie dann mit FG auf 80. Mit 40 auf 80 hab ich bisher in noch keinem Spiel Probleme gehabt.
 
Czk666 schrieb:
Was hindert dich dran dein Smartphone an deinen Monitor zu schließen?

Läuft kein Windows drauf...
 
floh667 schrieb:
Ich habe festgestellt das wenn es ein 1080p Video mit av1 Codec ist, meine rx6800 ca die Hälfte von dem verbraucht, als wenn es ein 1080p Video ist, das den vp9 codec verwendet.
Bei ersterem taktet die Karte den vram auch nicht pauschal aufs Maximum hoch.

VP9 wird weder bei AMD noch bei NV über die Media Einheiten, also über fixe Hardware Einheiten decodiert, sondern wird wohl auf den Shadern decodiert.
Natürlich braucht das mehr als AV1 welches direkt über die Media Einheiten in Hardware decodiert wird.
Aber da VP9 eh fast nur von YT und Netflix (nutzen auch HEVC und schon AV1) benutzt wird und das bald durch AV1 abgelöst wird, ist das bald Geschichte.

https://en.wikipedia.org/wiki/VP9
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floh667
Czk666 schrieb:
Was hindert dich dran dein Smartphone an deinen Monitor zu schließen?
Der Witz ist ja. Es ist der Monitor der der größte Stromfresser ist weniger das System (vor allem im idle). Beschwerden hier? Fehlanzeigen. Mein Monitor hat ne G Einstufung.
 
MrHeisenberg schrieb:
Treiber der 7900XTX. Niemand interessiert sich für deinen Inputlag-Gebashe gegen Nvidia.
Komm zum Thema zurück oder schleich dich!
Es zwingt Dich keiner die z.T. abschweifenden Beitraege von mir und anderen zu lesen, Du kannst mich ja auf Deine Ignorierliste setzen und ansonsten wuerde ich noch vorschlagen, Dir einen anderen, hoeflicheren Ton zu zu legen.
 
  • Gefällt mir
Reaktionen: PegasusHunter
Zurück
Oben