RX 7900XT effizienter machen

Ja, deswegen die schnelle CPU (7800 x3d)... um das so weit es geht zu vermeiden
 
schnufflon84 schrieb:
Vielleicht liegts wirklich daran, dass die 7900 XT nicht ganz so viel Leistung hat...
Das ist nett umschrieben. Die 4090 ist in Raster 45-50% schneller und in Rt 100%.

Man kann in spielen auch Grafik Regler bedienen um ein Bestimmtes Fps Ziel zu erreichen. Je schwächer die Karte umso eher.
 
Hab mal vergleiche von einer 4080 und 79xtx gesehen und bei ca gleicher Leistung einfach mal 60-90 Watt mehr verbrauch bei der AMD Karte, ist für mich unter anderem ein Grund bei Nvidia zu bleiben. Bei Multi Monitor betrieb teils noch viel schlimmer.
 
  • Gefällt mir
Reaktionen: yxman und Pro_Bro
... wenn ich euch jetzt sage, dass ich damit nur Counterstrike, Diablo4 und Baldurs Gate 3 mit 120 FPS Lock gespielt habe werde ich nun sicher gesteinigt^^.. Deshalb hab ich sie auch meinem Bruder gegeben.
Das einzige Spiel, wo der Rechner wirklich ordentlich (spürbat) Abwärme produziert hat war Cyberpunk 2077. aber das hab ich kaum gespielt.
 
Baldurs Gate 3 schafft die karte schon auf 100%, diablo4 glaube auch. schließlich kannste ja auch in hohen Auflösuingen zocken und kantenglättungen hochschrauben (nicht die billigen vermatschungen).

Wenn du es willst kriegst du mit deiner CPU bei fast jedem Spiel jede aktuelle Graka an die Wand gefahren.
 
Alexander2 schrieb:
Es gab da extra so verschiedene Typische Taktraten angaben, da mit so Leute wie du nicht plötzlich enttäuscht sind, aber nu hast du das anscheinend nicht mitbekommen.
Das war meinerseits keine Kritik an AMD oder der Architektur, sondern vielmehr die Erklärung dafür, dass RDNA 3 eben das Powerlimit immer ausreizt, sofern Volllast besteht.
ADA hingegen erreicht das Taktlimit häufig, sodass der Verbrauch dann trotz Volllast unterhalb des Powerlimits liegen kann.
 
Ja... Alles in Allem ist das wohl keine schlechte Karte. Und für die 4090 hab ich damals 2150 Euro bezahlt, für diese hier (Powercolor Hellhound) nur 780 Euro. Irgendwo muss ja der enorme Mehrpreis von Nvidia gerechtfertigt sein. Was mir noch aufgefallen ist, dass das Speichermanagement von AMD scheinbar etwas schlechter ist, da ich in den selben Spielen knapp ein GB mehr Grafikspeicher brauche... Aber bei 20 GB ist das jetzt auch nicht so tragisch.
 
Es kommt ganz auf das Spiel die Auflösung und das Limit an.

Kleines Beispiel aus dem Rtx4070super bench

Wqhd 144fps lock Doom Internal Leistung Verbrauch.
IMG_1596.jpeg
 
  • Gefällt mir
Reaktionen: schnufflon84
schnufflon84 schrieb:
dass das Speichermanagement von AMD scheinbar etwas schlechter ist, da ich in den selben Spielen knapp ein GB mehr Grafikspeicher brauche...
Ja, scheint auch nicht erst bei der Generation so zu sein, oder Nvidia Schrumpft die Texturen einfach etwas doller? etwas verlustbehaftet? Auf jeden Fall gibt es da einen Unteschied. Auch wenn das kaum ins gewicht fällt, wenn man bei Preislich vergleichbaren Karten sowieso immer mehr VRAM bekommt, zumindest das letzte mal als ich geschaut hatte.

Eben, bei 20GB wirste oft genug überhaupt mühe haben (bei älteren Spielen) das zu füllen
 
  • Gefällt mir
Reaktionen: schnufflon84
schnufflon84 schrieb:
Was mir noch aufgefallen ist, dass das Speichermanagement von AMD scheinbar etwas schlechter ist, da ich in den selben Spielen knapp ein GB mehr Grafikspeicher brauche...
Das war schon damals so zu Zeiten der GTX 1060 6 GB vs. RX480 8 GB, gab damals schon Tests dazu. Aktuelle Tests belegen das aber auch immer wieder. Manche glauben AMD ist so nett und schenkt was her, aber ohne das + an Vram gäbe es da echt Probleme.
 

Anhänge

  • IMG_0359.jpeg
    IMG_0359.jpeg
    466,4 KB · Aufrufe: 82
Pro_Bro schrieb:
aber ohne das + an Vram gäbe es da echt Probleme.
Das ist weit übertrieben, soweit ich das shen konnte in den letzten Test bekommste beim Gleichen Geld ein + an VRAM, das den Mehrverbrauch weit übersteigt.

Das Vram Problem ist meist trotzdem auf Seiten der Nvidia karten gewesen, wo bei AMD alles noch knackig aussieht hats bei Nvidia teils Unendliche Weiten aus matsch wo noch nie ein Mensch zuvor gewesen ist. :D

na gut, wenn man mal kurz sich nicht bewegt lädt ausm ram auch mal ne Schärfere Textur nach. :D oder man hat so nen Spiel, das nicht auf Matsch umsteigt bei VRAM Mangel und es wird einfach unspielbar Ruckelig.

Aber so hat jeder andere Anekdoten..
Und die Wahrheit ist irgendwo da: Stell deine Spiele so ein, das deine Karte damit klar kommt ob nun igpu oder was vom snapdragon oder sonstwas..
 
klahlord schrieb:
Hab mal vergleiche von einer 4080 und 79xtx gesehen und bei ca gleicher Leistung einfach mal 60-90 Watt mehr verbrauch bei der AMD Karte, ist für mich unter anderem ein Grund bei Nvidia zu bleiben. Bei Multi Monitor betrieb teils noch viel schlimmer.
Die 4080 kann man sogar einfach auf 250 Watt begrenzen, macht nur 3% Performance Unterschied, habs probiert. Im Vergleich zu der 7900xtx mit 355W schon heftig. Lässt sich dann sogar noch mit UV wieder etwas ausgleichen. Hab ich deshalb auch so laufen, UV+250 W. Natürlich schön im Sommer dann, wegen der geringeren Abwärme. Wird bei der Super dann noch besser, da mehr Einheiten.
 
@Pro_Bro
Und mir sagt man, mann könnte eine 4080 nicht an einem 550w nt betreiben. 250w hat meine 2070 locker unter last. Und selbst dann habe ich nicht mal annähernd 400w verbrauch.
 
klahlord schrieb:
Und mir sagt man, mann könnte eine 4080 nicht an einem 550w nt betreiben
Es geht dabei nicht um die gesamt Leistung alleine sondern um die leistungsspitzen, die selbst bei ein 250watt Karte 500watt betragen können. Igorslab hat da schöne Tests. Aber keiner verbietet es dir es auszuprobieren. Dazu kommt noch das nicht jedes Netzteil gleich ist obwohl die gleiche Watt Zahl draufsteht.
 
klahlord schrieb:
@Pro_Bro
Und mir sagt man, mann könnte eine 4080 nicht an einem 550w nt betreiben. 250w hat meine 2070 locker unter last. Und selbst dann habe ich nicht mal annähernd 400w verbrauch.
Hier https://www.computerbase.de/artikel...nitt_leistungsaufnahme_spiele_youtube_desktop
siehst du, die Lastspitze beträgt 50 Watt mehr als das Power Limit.
Also 4080 auf 250W setzen (wird trotzdem 300 W Peaks mit sich bringen, was eigentlich ok ist) + UV (falls du noch bissl Verbrauch sparen willst auch wenn das PL nicht erreicht wird, z.B. bei gesetztem FPS Limit + CPU auf Eco Modus setzen im BIOS (macht bei reinem Spielen kaum Unterschied, senkt Aber Temperatur und Verbrauch) und dann kannst es probieren, ist aber knapp.
Geht man unter die 250, dann wird der Verlust größer, bei 224 W waren es 6% mit UV. Bei 170W verliert man 25%. Also 224W mag noch ok sein, darunter ist der Verlust dann so als wenn du dir gleich eine niedrigere Klasse kaufen kannst. Die 4090 verliert zum Beispiel von 450 auf 350 auch nur 3%, aber von 350 auf 300 dann schon 7 weitere.
 
Nächste Woche oder so soll ja auch FSR3 rauskommen hab ich gehört... dann sollte sie auf fest eingestellter Bildrate ja noch sparsamer laufen...
 
schnufflon84 schrieb:
Nächste Woche oder so soll ja auch FSR3 rauskommen hab ich gehört...
? Du meinst AFMF , das hat nix mit FSR3 zutun. kannst du übrigens schon jetzt mit dem Preview treiber testen. läuft bei mir seid Oktober.

wenn man ein paar sachen beachtet ist es ein nettes kleines feature, wenn man min einen 120hz Monitor besitzt.
 
Ja, ich habe inner fest 120hz eingestellt... taugt das was oder kann man es nicht mit DLSS vergleichen?
 
schnufflon84 schrieb:
taugt das was oder kann man es nicht mit DLSS vergleichen
AFMF ist kein Upscaler sondern ein FG tool, welches bei jedem DX11/12 vulkan spiel über den treiber eingeschalteter werden kann.

FSR3 ist spiel intern und das dortige FG nennt sich FMF. welches etwas besser ist als jenes über den treiber, aber es muss halt im spiel integriert sein.

AFMF ist es egal.
Ergänzung ()

schnufflon84 schrieb:
Ja, ich habe inner fest 120hz eingestellt
du meinst Fps. welchen Bildschirm hast du?

falls du es mal mit dem Preview ausprobieren möchtest dann sag bescheid, dann geb ich dir noch ein oar tips dazu.
 
Ich habe einen 4K 120 HZ Fernseher (Samsung QN95B).. darum immer fest auf 120HZ/fps eingestellt
 
Zurück
Oben