Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRadeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen
Die Leistungsaufnahme in spielen ist ja fast egal.
Aber die Leistungsaufnahme in leerlaufe ist immer noch viel zu hoch!
Mein Laptop braucht unter last quasi weniger wie diese Karten im leerlauft.
Bei den Strompreisen lohnt es sich bald ein zweites System zu haben für etwas Internet browsen und YouTube schauen.
Eigentlich bräuchte man ein Smartphone im PC für Idle. Die Dinger leisten mittlerweile richtig viel und verbrauch bei einfachen Sachen wie Surfen und Co. quasi nichts.
Nur wurde es damit aber verglichen und das duerfte wohl auch ein Grund sein (neben dem schleppenden Verkauf von den teuren Ada Locelace Karten), wieso DLSS3 nur unauffaellig vermarktet wird, weil es den Anspruechen (von nVidia selbst auch) noch nicht wirklich genuegt (Erinnerungen an DLSS1 werden wach).
Uebrigens gibt es ja, wie Du weisst, noch kein FG fuer AMD GPUs, es wurde mit FSR3 lediglich in Aussicht gestellt (ob und was da kommt, kann man ausserhalb von AMD/RTG wohl auch nicht wirklich einschaetzen) und somit passt das nicht wirklich als Vergleichsbasis/-stufe.
Wenn ein Feature ein anderes (Reflex) kompromittiert oder verschlimmbessert bzw. nicht an dieses heranreicht, dann ist das natuerlich nicht als Vorteil und ausgereift zu bezeichnen und darum geht es hier doch.
Da sollte man nicht zum Rosinenpicker avancieren bzgl. der Bewertung von DLSS3 und Reflex ausschliessen, welches zum propriertaeren nVidia Katalog gehoert und eben kein allgemeiner Standard bei GPUs ist.
Die Probleme sind die gleichen und beide sich Entwickler von Grafikkartenchips, daher ist das auch mehr als passend ... ein "Ihr" gibt es daher nicht und wenn Du andere Meinungen nicht tolerieren oder verkraften kannst, bist Du vielleicht in einem Forum falsch aufgehoben .
Das du die Probleme, besser gesagt die Tragweite als „Gleich“ bezeichnest, ist nicht nur dummes Zeug sondern zeigt wieder total den typischen AMD Fan Whataboutism.
Aber wir kennen euch ja…..
Erfreulich. War auch abzusehen, dass AMD da nachbessert. Gibt also nichts zu bereuen für alle Frühkäufer. Jetzt kann man auch guten Gewissens zur 7900 XTX statt 4080 greifen. Im Falle der 7900XT sieht die 4070ti gar kein Land mehr.
Richtig ist, dass der 4er ein aufgebohrter 5er ist. Gem. TSMC ist der Vorteil der des N4-Prozesses bei der Energieffizienz aber bei satten 22%. Das ist nicht doch schon recht erheblich.
Eigentlich bräuchte man ein Smartphone im PC für Idle. Die Dinger leisten mittlerweile richtig viel und verbrauch bei einfachen Sachen wie Surfen und Co. quasi nichts.
Input Lag Input Lag... wenn ich das schon lese. Das ist maximal messbar sonst nichts. Kann mir keiner erzählen das der unterschied bei irgendjemanden etwas bewirkt. Alles Marketing geschwurbel. Das einzige was Reflex bewirkt ist eine höhere Stromaufnahme. Multiplayer übers Internet spielen und über Input Lag fabulieren ist einfach beknackt.
Gut, dann sind FSR und DLSS ja auch komplett gleichwertig anzusehen unter dem Gesichtspunkt individueller Empfindung, auch wenn die Fachpresse glaubt DLSS mit Standbildern als marginal besser beurteilen zu muessen als FSR, wenn Unterscheide im eigentlichen spielen eigentlich nicht nachgeweisen werden koenen.
Wenn Du es so weit spannen moechtest, kannst Du RT-RT ja auch noch gleich mit in den Katalog aufnehmen, denn da gibt es auch einige, die behaupten, dass RT-RT fuer sie nicht nachweislich wahrnehmbar ist oder gar eine Verschlimmbesserung gegeneuber der Raster-Darstellung ist.
So kann man - wenn man denn will - natuerlich alles relativieren (auch die Benchmarkbalken bei Tests 5-10% mehr oder weniger Frames machen i.d.R. auch keine spuerbaren Unterschied in Spielen aus, wie so dann noch die teurere Grafikkarte kaufen?), aber das duerfte wohl auch nicht im Interesse Deiner und der Argumentation von @Zer0Strat sein .
Das "Argument from Authority" wird uebrigens auch dann als Trugschluss dargestellt, wenn einem die eigenen Argumente ausgehen .
Und trotzdem noch 35ms besser als man ohne Reflex, also mit einer AMD Karte oder eben in einem Spiel welches Reflex und FG erst gar nicht bietet, unterwegs wäre.
In besagtem Test stehen 28FPS bei 71ms gegen 50PS bei 86ms, der Sprung von 28 auf 50FPS nützt dir definitiv mehr als dir die Latenzsteigerung von 71 auf 86ms schadet, zumal du ohne Reflex sowieso mit 29FPS bei 120ms unterwegs wärst.
@Chismon es geht hier um den Treiber der 7900XTX. Niemand interessiert sich für deinen Inputlag-Gebashe gegen Nvidia.
Komm zum Thema zurück oder eröffne deinen eigenen Thread in dem du über Nvidia mit deinesgleichen rumheulen kannst.
@Topic:
Die Meldung ist erfreulich und war vorauszusehen. Es werden garantiert auch noch weitere Optimierungen seitens AMD folgen, aber ich erwarte hier keine großen Sprünge.
Wirklich, ist das so (?), Du weisst also wo ich wohne, was ich so mache, etc. ... dann erzaehl' 'mal bitte.
Wenn Du nicht auf vernuenftiger Basis diskutieren moechtest, dann lassen wird das eben, denn das bringt nichst und mir ist dazu meine Zeit zu schade ... dann lasse ich Dich mit Eurem Wissen um mich allein und wuensche noch ein schoenes Wochenende.
Danke für den Test, ich finde die Test mit Leerlauf und Fensterbewegung und Videowiedergabe find ich wirklich gut, wenn es nicht zuviel Aufwand ist wäre es schön wenn das mit jeweils 4k 60Hz und einmal WQHD 144Hz gemacht werden könnte, ich war erst verwirrt wie im Leerlauf der Verbrauch höher sein kann als wenn man etwas am PC macht und sei es nur Fenster schieben. Da erkennt man zumindest auch gleich welchen EInfluss die Wiederholungsrate ggf. hat.
In besagtem Test stehen 28FPS bei 71ms gegen 50PS bei 86ms, der Sprung von 28 auf 50FPS nützt dir definitiv mehr als dir die Latenzsteigerung von 71 auf 86ms schadet, zumal du ohne Reflex sowieso mit 28FPS bei 120ms unterwegs wärst.
So gut wird es auch nicht laufen, aber besser als normale 28FPS ^^
Es werden auch 40-60FPS als Ausgangsbidrate empfohlen, dann geht man eben erst mit DLSS Quality auf besagte 40+ und haut sie dann mit FG auf 80. Mit 40 auf 80 hab ich bisher in noch keinem Spiel Probleme gehabt.
Ich habe festgestellt das wenn es ein 1080p Video mit av1 Codec ist, meine rx6800 ca die Hälfte von dem verbraucht, als wenn es ein 1080p Video ist, das den vp9 codec verwendet.
Bei ersterem taktet die Karte den vram auch nicht pauschal aufs Maximum hoch.
VP9 wird weder bei AMD noch bei NV über die Media Einheiten, also über fixe Hardware Einheiten decodiert, sondern wird wohl auf den Shadern decodiert.
Natürlich braucht das mehr als AV1 welches direkt über die Media Einheiten in Hardware decodiert wird.
Aber da VP9 eh fast nur von YT und Netflix (nutzen auch HEVC und schon AV1) benutzt wird und das bald durch AV1 abgelöst wird, ist das bald Geschichte.
Der Witz ist ja. Es ist der Monitor der der größte Stromfresser ist weniger das System (vor allem im idle). Beschwerden hier? Fehlanzeigen. Mein Monitor hat ne G Einstufung.
Es zwingt Dich keiner die z.T. abschweifenden Beitraege von mir und anderen zu lesen, Du kannst mich ja auf Deine Ignorierliste setzen und ansonsten wuerde ich noch vorschlagen, Dir einen anderen, hoeflicheren Ton zu zu legen.