4080 super 3D-Auslastung bei Anwendungen sehr hoch

ApophysX

Newbie
Registriert
Mai 2024
Beiträge
3
1. Meine aktuelle Hardware:
  • Prozessor (CPU): I4 13600K
  • Arbeitsspeicher (RAM): 32 GB DDR5 6000 CL 30
  • Mainboard: Gigabyte Z790 AORUS ELITE AX (rev. 1.x)
  • Netzteil: Corsair RM850x
  • Gehäuse: x
  • Grafikkarte: RTX 4080 super Founders Edition / Powercoler RX 6900 XT Red Devil
  • HDD / SSD: M.2 SSd´s
Hallo,

Ich habe meine RX 6900 gegen eine RTX 4080 super getauscht und habe nun ein Problem mit Windows Anwendungen (nicht mit Games)

Wenn z. B. OBS gestartet ist, steigt die 3D-Auslastung der 4080 auf 40-70%. Wann Snap Camera gestartet ist (ohne ein Overlay) nimmt sich das Problem ca. 30% der 4080. Zuvor hatte ich die RX 6900 im Einsatz und da verbraucht OBS nur 6% und Snap Camera nur 10%.

Ich habe an System und an der Software nichts geändert, es wurde nur die Grafikkarte ausgetauscht und natürlich der aktuelle Treiber (552.22-desktop-win10-win11-64bit-international-dch-whql.exe) installiert.
Wieso verbraucht OBS Studio auf einer RTX soviel mehr Leistung als auf eine RX Karte? Und kann man da was gegen tun?

So sieht es mit der 4080 aus:

RTX OBS1.png

RTX OBS2.png


Und so mit der RX 6900:
RT 6900 OBS1.png
 
Die Auslastung der Grafikkarte ist immer relativ zum Takt, den die GPU gerade abruft.
Mit anderen Worten: Deine Karte braucht für eine bestimmte Aufgabe gerade 40% ihrer "derzeitigen" Leistungsfähigkeit.

Interessant wäre in deinem Kontext also, mit welchem Takt die Karte gerade arbeitet.
Sehen kannst du das unter anderem mit z.B. GPU-Z, der Taskmanager zeigt solche Informationen leider nicht an.

Dass AMD hier eine andere Auslastung für die selbe Arbeit anzeigt, liegt vermutlich einfach an einem anderen Power Management durch den Treiber. Die AMD Karte läuft wahrscheinlich mit einem deutlich höheren Takt und braucht daher weniger % von ihrer relativen Leistung. Während die Nvidia Karte vermutlich gerade mit 150-200Mhz Taktet und dementsprechend mehr von ihrer relativen Leistungsfähigkeit abruft.

Wichtig ist im Endeffekt also nur, wie viel Energie die jeweiligen Karten aufnehmen, um die selbe Arbeit zu erledigen. Und wenn die Nvidia GPU merkt, dass sie mit ihrem niedrigen Takt nicht schnell genug arbeitet, wird der Treiber den Takt erhöhen, was wiederum die relative Auslastung senkt.

Ich hoffe das war einigermaßen verständlich ^^
Dein Karte arbeitet vermutlich völlig normal. Keine Grund zur Sorge.
 
  • Gefällt mir
Reaktionen: rumpeLson, petepow, DJMadMax und 2 andere
Jap, was @T2xlc sagt.

Vereinfacht gesagt, deine karte braucht bei 210Mhz takt 44% ihrer leistungsfähigkeit, würde rechnerisch wenn wir den takt auf 420 verdoppeln eine halbierung der last auf 22% machen etc.
Übrigens: schau mal auf die stromaufnahme in deinem screen, der liegt da bei:
12 Watt bei der 4080
38 Watt mit der RX 6900


Davon ab solltest du in OBS dan eher auf den NVENC anstatt x264 etc. gehen. (sofern du das nicht schon getan hast)

Edit: Meine 4090 geht bei mir auch nur durch den start von OBS auf 30% last und die performt doch ganz gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SaschaHa, Sinatra81, DJMadMax und eine weitere Person
Wie wäre es mit einem GPUz Vergleich screenshot? Hier wird der aktuelle Watt Verbrauch / Auslastung direkt angezeigt und man kann besser vergleichen.
 
Danke erst einmal für eure Antworten.

Auf den Bildern ist der aktuelle GPU Takt zu sehen.

Das Problem ist, wenn OBS im Hintergrund läuft (ohne zu streamen oder aufzunehmen) bekomme ich in Dying Light 2 nicht mal 60FPS (nur um die 45 FPS), da die 4080 99% ausgelastet ist. Wenn ich OBS beende, kommt DL2 auf 86 FPS. So kann ich nicht streamen. Mit der 6900 habe ich das Problem nicht.

Weitere Tests kann ich nicht mehr machen, da ich die 4080 Super bereits verpackt und ein Widerruf gemacht habe. Die 6900 bleibt erstmal in meinem System, mal schauen, ob ich es dann später mal mit einer RX 7900 XTX versuche.
 
Hast du den alten AMD treiber auch mal per DDU komplett geplätet? Nicht das sich da was verheddert hat (kommt bei so einem wechsel gerne mal vor)
ApophysX schrieb:
Weitere Tests kann ich nicht mehr machen, da ich die 4080 Super bereits verpackt und ein Widerruf gemacht habe.
Entschuldige, aber dann hättest du dir das fragen hier von vornherein sparen können. So kann man ja nicht mal eine fehlersuche machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maviba, ShowOff, Sinatra81 und 4 andere
Hallo CrazyT,

ja ich habe vor dem Ausbau der RX 6900 DDU durchlaufen lassen.

Und die Frage hatte ich gestellt las ich noch der Meinung war dass ich die 4080 behalte, aber das hat sich nun erledigt.
 
ich behaupte mal du haettest noch mehr Feedback aus dem Forum bekommen, wenn du nicht den Thread Nachts um 0:30 Uhr eroeffnet und dann schon um 1:55 Uhr die GPU verpackt haettest ...
aber gut, ist jetzt halt so.

Dann viel Erfolg mit der 7900XTX, vielleicht bist du damit ja dann zufriedener.
 
  • Gefällt mir
Reaktionen: Maviba, Sinatra81 und Asghan
Mit hoher Wahrscheinlichkeit Anwenderproblem und Einstellungssache. Rtx ist für OBS dank nvenc eigentlich perfekt geeignet, um ohne große Leistungsverluste in guter Qualität zu streamen, oder aufzunehmen. 🤷‍♂️

Hab mal mit 2080ti gestreamt und hatte eben kaum fps Verluste.

Naja, hat sich ja erledigt! 👌
 
CrazyT schrieb:
Hast du den alten AMD treiber auch mal per DDU komplett geplätet? Nicht das sich da was verheddert hat (kommt bei so einem wechsel gerne mal vor)
Das war zu Windows XP Zeiten einmal so. Seit Windows 7 kann man ohne Probleme verschiedene Grafikkartentreiber installieren ohne das diese sich gegenseitig beeinflussen.
 
Hardy_1916 schrieb:
Seit Windows 7 kann man ohne Probleme verschiedene Grafikkartentreiber installieren ohne das diese sich gegenseitig beeinflussen.
Das ist einfach falsch und das konnte ich zig mal gegentesten...

Da reicht es schon wenn shader vom game "falsch" zugewiesen werden.
Dutzende mal schon erlebt. In zeiten vor DDU hab ich das sogar von hand ausklamüsern müssen. Gab zwar gute anleitungen dazu, war dennoch mühselige arbeit.
 
Sinatra81 schrieb:
Mit hoher Wahrscheinlichkeit Anwenderproblem und Einstellungssache. Rtx ist für OBS dank nvenc eigentlich perfekt geeignet, um ohne große Leistungsverluste in guter Qualität zu streamen, oder aufzunehmen. 🤷‍♂️

Nicht nur mit hoher Wahrscheinlichkeit, sondern IST zu 100% besser als was amd hat solange die streaming plattform wird wohl twitch sein kein av1 kann. Erst ab dann an, sind rx 7000 Karten mit nvenc gleichwertig zum streamen nutzbar. Ich hatte gtx 1070, gtx 2080 und seit geraumer Zeit 2 verschiedene rtx 4000er Karten.

Solange man Single setup (dual setup wäre 8kerne+ für x264) macht führt kein Weg an nvidia vorbei, es sei denn man steckt sein Geld massiv in die cpu 12 Kerne+ und das Spiel ist kein cpu-Limit game
 
NerdmitHerz schrieb:
Solange man Single setup macht führt kein Weg an nvidia vorbei, es sei denn man steckt sein Geld massiv in die cpu 12 Kerne+ und das Spiel ist kein cpu-Limit game
Naja der nvenc ist selbst da noch "schonender" als x264, der für gleiche bildquali MÄCHTIG rechenleistung verlangt.

Aber, sofern irgendwann mal der AV1 support bei twitch kommt, ginge selbst ein single setup mit ner alten karte und ner IntelARC im 2. pcie slot.
Angefragt hab ich jedenfalls:
1714977953595.png
UUUUUUUUUUND ich seh grad das die am 15.03 vermeldet haben, das vorerst nur H264 getestet wird... ich bekomm die motten.

Muss aber gestehen der AV1 codec ist schon echt krass und ich meine mir einzubilden das es auch ingame flüssiger läuft als mit dem nvenc oder x264
 
Zurück
Oben