Sparsamste Grafikkarte für 4K Gaming

Eine Überlegung wert wäre anspruchsvollerer Titel in FullHD zu spielen. Da ein gerader Faktor zwischen FullHD und 4K ist sieht das auch gut aus. Oder man nutzt die Render-Skalierung in Spielen, sofern vorhanden.

Habe ich die letzten Jahre auch so gemacht mit einer RX 480 8 GB.
Vermutlich werde ich ja nicht mal mit meiner jetzigen RX 7800 XT alles in 4K spielen können. Und die ist deutlich teuer als 400 €.
 
Captain Mumpitz schrieb:
Ganz pauschal: wer in 4K spielen will, für den muss der Verbrauch zweitrangig sein.
In erster Linie, siehe
Finde ich überhaupt nicht. Ich nutze eine RTX4070 für 4K und kann mich absolut nicht beklagen. Klar, kein 4K120p max. Settings, aber Hoch geht immer und sieht nur minimal schlechter aus. Und das bei 200W.

Ein absoluter Traum meiner Meinung nach.
 
Ich fasse mal zusammen:

  1. Eine RTX 4060 Ti ist (auch auf Grund des 8GB VRAM) für 4K nicht ideal.
  2. RTX 4070 kann mit geringerem Power Target auf niedrigen Verbrauch getrimmt werden

Ich bin mir ehrlich gesagt nicht sicher, ob eine RTX 4060 Ti wirklich zu langsam ist.
Reviews (CB, Gamestar, PCG, Toms Hardware etc.) testen immer auf höchsten Settings.
  • Reviews keine genauen Rückschlüsse zu wie es sich bei tieferen Qualitätseinstellungen verhält

Dann gibt es ja DSSL3 und FSR 3.0 mit Frame Generation dazu.
  • könnte helfen einige FPS in unterstützten Spielen zu gewinnen.
    Mein Ziel sind >45 FPS

Fazit:

Für mich kämen alos RTX 4060 Ti, RX 7800 XT und RTX 4070 in Frage (genau die Reihenfolge = Präferenz).
Die RTX 4060 Ti ist "relativ" günstig und sparsam.

Die RX 7800 XT ist in 4K 5% schneller wie die RTX 4070.
-> Braucht dazu 50W mehr Strom - Undervolting möglich

Was ich jetzt nicht weiss, wie die Leistung bei mittleren Settings in den AAA Titel wie Red Dead Redemption 2 etc. ausfällt. Ich werde am PC nicht so häufig zocken und öfter doch die alten Schinken. Alles was echten Tiefgang oder viel Action hat würde sowieso nicht am TV gezockt sondern mit Maus & Tastatur.

Offen Fragen:

  • Kann eine RX 7800 XT gut undervolted werden? Das Internet meint da wäre viel Spielraum
  • Ist FSR 3.0 "the next big thing" ?
  • Mein PC hat PCIe 3.0 - macht das mit den 8 Lanes der RTX 4060 Ti etwas aus?
 
Also,
ich könnte was testen wenn es erwünscht ist 😅

Hab ein 5700x + 4070.
Beides mit sanftem UV.
Könnte aber nur 3440x1440 testen.
 
Hättest du Lust mal ein paar AAA Titel mit und ohne DLSS 3 / FSR 3.0 messen?
Vielleicht auch mit Powertarget auf 160W ? Also so dass sie Stromtechnisch der 4060 Ti entspricht?

Das wäre mal interessant.
Und wenns ein paar Titel gibt die auf höchsten Preset nicht flüssig laufen, was helfen niedrigere Settings?

Da die meiste Zeit eher anspruchslos gezockt wird, setzte ich Hoffnung auf Frame Generation und upscalling.
 
Zuletzt bearbeitet:
Öh .. ich muss erst mal schauen ob ich überhaupt solch ein Titel habe (außer Cyberpunk)
xD

Ich kann zumindest auch einfach direkt messen was die Kiste aus der Dose zieht :)
 
Das Video hier ist noch zu empfehlen (viel mehr über FSR/DLSS kann man kaum wissen wollen):
 
Rechner direkt an der Dose gemessen: (Werte schwanken immer ein wenig, hab genommen was möglichst stabil/oft zu lesen war:

CPU:
AMD Ryzen 7 5700x
-0,05V Offset Mode im BIOS

GPU:
KFA2 Geforce RTX 4070 EX Gamer
GPU via Curve Editor @ 2595 MHz @ 925mV
VRAM +200 MHz @ 10700 MHz (1337 MHz)
Power Limit 95%
Temp Limit 80°C


IDLE - (PC hochgefahren) = 62W im IDLE, MSI AB, Fan Control, Steam sind an

GAMING - Cyberpunk 2.01, MSI AB, Fan Control, GoG laufen: Nvidia 537.42 Treiber installiert.

Auflösung: 3440x1440

254W (111fps) = Vorkonfiguration ULTRA
258W (127fps) = Vorkonfiguration ULTRA + DLSS
253W (148fps) = Vorkonfiguration ULTRA + DLSS + FG
212W (75fps) = Vorkonfiguration ULTRA + DLSS + 75fps Lock
248W (28fps) = Vorkonfiguration Raytracing ULTRA
263W (60fps) = Vorkonfiguration Raytracing ULTRA + DLSS Auto
255W (89fps) = Vorkonfiguration Raytracing ULTRA + FG
268W (49fps) = Vorkonfiguration Raytracing ULTRA + AMD FSR 2.1

Karte zog max. 148W (in den Screenshots) via MSI AB OSD
Gar nicht mal selten nicht auf 99-100% die Graka


Config_Ray_Ultra_DLSS.png

Config_Ray_Ultra+AMD_FSR.png

Config_Ultra_DLSS_75fps.png

Config_Ultra_DLSS+FG.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gohst
Spannend, mit Lock auf 75 FPS und DLSS lassen sich 56W sparen.

Da das ganze gesparte wohl an der Grafikkarte liegt, hat das einen grossen Einfluss auf die Kühlung.

Man sieht 9 Grad unterschied bei der GPU.
In kleinen Gehäusen wie dem Silverstone ML07 könnte das noch mehr ausmachen.

Ich denke, die RTX 4070 wird somit zur attraktivsten Option.

Schlussendlich sind Faktoren wie Kühlbarkeit auch wichtig (oder sogar entscheidend) beim geplanten Setup.
 
  • Gefällt mir
Reaktionen: Tr8or
Gohst schrieb:
Ich bin mir ehrlich gesagt nicht sicher, ob eine RTX 4060 Ti wirklich zu langsam ist.
Reviews (CB, Gamestar, PCG, Toms Hardware etc.) testen immer auf höchsten Settings.
Eine 4060Ti ist selbst in WQHD schon ziemlich lahm. Abhängig von Spiel, Setting und persönlichem Anspruch. Eine Karte unter 12GB VRAM, würde ich 2023 sowieso nicht mehr kaufen und RdRD2 wird in 4K die 8GB VRAM weglutschen wie Eis in der Sommersonne. Das ist wirklich kein Vergnügen. Forza weiß ich nicht. Eine 4060Ti ist eine luprenreine und technisch so konstruierte WQHD Karte.

Eine 4070 ist da schon besser, aber auch die ist für schickes 4K unterdimensioniert, wird aber punktuell hier und da schon gehen. Ganz sicher würde ich unter Last eine RTX4070 keinem 450Watt Netzteil von 2016 anvertrauen und umgekehrt, ganz gleich, welche CPU verbaut ist. Unbehandelt wird die Maschine bei Lastspitzen und schnellen und harten Lastwechsel im 1ms-20ms Bereich sehr wahrscheinlich ausschalten. Wenn man die Last durch UV reduziert, bleiben noch immer die Lastwechsel.

Gohst schrieb:
Mich interessier nur dee berechnete effektive Verbrauch und das sind 359W.
Und genau diese Verfahrensweise ist ein Nuance zu unterkomplex und etwas aus der Zeit gefallen. Moderne Prozessoren sind regelrechte Schaltmonster und sowohl CPUs und GPUs modernerer Bauart, haben einen Hang zu unschönen Lastspitzen, die ältere Netzteile einfach nicht mehr bewältigen, weil sie für diese Art Prozessoren schlicht nicht konzipiert sind. Netzteilhersteller kompensieren das mit höheren Reserven und angepassten Schutzschaltungen.

Du solltest Dich daher nicht darauf verlassen mit einer undervolteten 4070 und einem älteren 450 Watt Netzteil ein ungetrübtes Spielevergnügen zu haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gagapa
Japp, muss ich leider auch sagen.

Die Netzteile bringen bestimmt noch ihre Leistung.
Wobei dein Netzteil sogar noch Garantie haben sollte.

seit 2018 auf dem Markt und 7 Jahre Garantie.

Ach Moment!

Platinum seit 2018
Gold seit 2016

Will sagen: Es geht gar nicht nur um die Leistung die es erbringen muss (klar, zu knapp kalkuliert schaltet es bei einer Lastspitze einfach ab / Billig-Netzteil "China-Böller" geht hoch)

Es geht auch um die wesentlichen aggressiveren Energiesparmodi von CPU & GPU.
Das können neuere Netzteile besser anfangen.

2016 kam die GTX 1080 raus.
Die Karten waren mit die ersten mit dem GPU Boost 3.0
Fein abgestufte Taktraten die den Takt eben je nach Auslastung anheben/senken.

Sowas "kann" auch sein. Wenn ein Netzteil mal nicht will.

Ich würde ein neues Netzteil einfach mal auf die Liste packen.
RTX 4070 Karten gibt es teilweise noch mit dem guten alten 8pin Stecker! :)
 
Ja mit der RTX 4070 ist das Corsair SF450 Netzteil sicher etwas knapp.
Bei der 4060Ti hätte das wohl gut gereicht.

Der PC war mal mit ner GTX 670 (170W) und danach GTX 970 bestückt und lief 1A.
Damals noch mit einem Intel i7 3770... was auch schon fast im Kühlungslimit war (Proliamtech Samuel 17).

Das Corsair Netzteil ist ehrlich gesagt schon ein kleines Kraftpaket ;)
Aber ja es ist das alte mit Gold-Effizienz.
https://www.computerbase.de/2016-11/sfx-netzteil-corsair-sf450-test/8/

Gibt auch Tests wo es mit 500W Abgabeleistung noch stabil läuft bei exzellenter Restwelligkeit.
 
Zuletzt bearbeitet:
@Gohst:
auf verdacht ersetzen würde ich das SF450 für ne 4070 nicht, zumal du die karte ja auch noch mit reduziertem power limit betreiben willst. das sollte passen.
 
Hab meinen Hinweis noch durchgelesen.

Also testen würde ich die Kombi auf jeden Fall so.
Aber ein neues Netzteil sollte im Hinterkopf bleiben.

Vielleicht wenn sich das mit dem Standard der Stecker endlich mal etwas gefestigt hat.
Ist der 12VHPR so jetzt gut ?
Was macht AMD und Intel ?

Nachher brauch man noch irgend ein blöden Adapter.
 
Also ich habe mal per Sofort auf AM4 umgestellt da ich ein gutes ITX Board zu nem guten Kurs erhalte.

Zuerst kommt mal als Sofortmassnahme ne RX 5700 rein die noch im Schrank liegt.
Da kann ich schon mal mit Upscaling testen obs immerhin für GTA V und RdR2 reicht.

Und das Netzteil bisschen quälen :)
 
  • Gefällt mir
Reaktionen: RaptorTP
RaptorTP schrieb:
RTX4070 mit 12GB würde ich wohl auch nicht nehmen für 4K.

Gohst schrieb:
(auch auf Grund des 8GB VRAM) für 4K nicht ideal.
8gb kannst komplett für 4k vergessen, 12gb ist auch viel zu knapp, mind 16gb sollten es schon sein, bei Resi 4, max settings +Raytracing bin ich schon bei 14-17gb dedicated vram, hängt vom Szenario ab, aber im schnitt 14gb.

Sparsam und 4k passen nicht so gut zusammen :=)
 

Anhänge

  • vram resi 4.png
    vram resi 4.png
    5,8 MB · Aufrufe: 105
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oudenstekelig und RaptorTP
Mit forza motorsport sieht das düster aus so mal als bsp
4k braucht es min ne rtx4080 um über die magischen 60fps zu kommen.
Mal nen vergleich in fhd mit realen 9,2tf (13tf nvidia Angabe) einer rtx3060
1697699486424.png

1697699518945.png


Da gpu linear sind folgende Prognose
rtx 4070 +110% FHD 69fps qhd 45fps uhd 22fps
rtx4080 +300% fhd 99fps qhd 65fps uhd 32fps
rtx4090 +569% FHd 229fps (cpu limitiert dann 110fps) qhd 100fps uhd 75fps
Im übrigen DLLS und fsr funktionieren derzeit nicht bzw sind nicht aktiv man muss die Auflösung manuell herabsetzen in Renderauflösung was in matsch resultiert

FHD full high definition = 1080p 2 Millionen pixel
(w)Qhd wide quad high definition =1440p 3,9 Millionen pixel
Uhd ultra high definition =2160p 8 Millionen pixel
rtx4070 64rop
rtx4080 112rop
rtx4090 192rop

zur Aufklärung weil es dazu nen test gibt im spiel ist es sehr schwer das es OHNE automatische Qualitätsanpassung läuft
Einfach presets laden geht da nicht da muss alles Manuel angepasst werden und die option deaktiviert werden
Erst dann greift es ansonsten limitieren folgende Komponente
monitor refreshrate
vsync wird quasi erzwungen
automaische vram Anpassung
automatische variable rate shading ist aktiv
Die optionen übersieht man schnell. Dazu die renderauflösung in den presets auf automatisch.
Das muss alles manuell bei jeder gpu bei jedem Treiber neuinstall neu eingestellt werden.
das wird man hier im test nicht getan haben.

Also wird das nix mit 4k und sparsam. In raster sieht es besser aus.
Bisher läuft dlss und fsr nicht was man merkt.
 
  • Gefällt mir
Reaktionen: Gagapa
Ich habe mal ne RX 6700 XT und Ryzen 5700X+Board für das System besorgt .
Sobald der neue CPU Kühler da ist probiere ich mal was da so rauskommt.

Es ist nur ein "Konsolen-Ersatz" und kein Haupt-PC - Abstriche bei Qualitätseinstellungen in AAA Games sind okay. Der TV hat HDMI 2.1 und FreeSync das ist schon mal eine gute Ausgangslage.
Die meiste Zeit werden dort ältere Games gezockt (sicher auch mal was mit Emulatoren).

FSR 2.0 Quality Preset mit 0.75x (Rendering auf 2K) ist auch völlig okay - das packt die RX 6700 XT.
AAA Titel wie RdR2 und Forza Horizon 5 oder God of War2 packt sie mit FSR 2.0 Quality Preset auch in 4K.

Wichtig ist mir auch, das ganze in der gewählten Bauform (ITX Case im TV Möbel) anständig kühl zu halten.
Mit i5 8600k und GTX 1650 ging das noch gut.
Mit der zuvor verbauten GTX 970 war es im Sommer auch OK - wurde manchmal aber schon "eng".

Mal schauen, die "neu" gekaufte Hardware hat nicht mal 2/3 von dem gekostet was eine RTX 4070 wert wäre.
Das ist sicher keine Fehlinvestition :)

Optimal wäre sicher ne RTX 4080 (oder sogar 4090) mit massiv tiefem Power Target wenn man auf Leistung pro Watt schaut. Aber eben das ist dann völlig "out of scope".
 
Zuletzt bearbeitet:
Zurück
Oben