4K mit einer Geforce 5080 sinnvoll?

Ginryuu

Cadet 2nd Year
Registriert
Feb. 2025
Beiträge
20
Hallo Leute.

Ich habe zum Release der 50er Serie von nVidia eine 5080 Asus TUF Gaming ergattern können (vorher nur mit der iGPU meines Ryzen 5 7600X rumgedümpelt) und wollte mal nachfragen ob ein Wechsel auf einen 4K fähigen Monitor sinnvoll wäre. Ich habe die letzten Tage ziemlich viel nachgelesen und mir diverse Reviews angesehen (unter Anderem von Monitors Unboxed auf YouTube) und dennoch habe ich keine eindeutige Antwort finden können.

Momentan nutze ich einen Dell G2724D der aber irgendwie von Anfang an ein nerviges Problem hat, weshalb ich den dann auch bald austauschen möchte. Entweder ist es ein G-Sync Problem oder hat mit der Hz-Einstellung zu tun.
Bei 60 Hz ist alles ok. Wenn ich auf 120 Hz umstelle bekomme ich in unregelmäßigen Abständen so weiße, dünne Linien durchs Bild geflackert. Das geschieht in einem Bruchteil von einer Sekunde. Bei 144 Hz ist es etwas schlimmer und regelmäßiger, aber nur bei Desktop-Anwendungen. In Spielen ist nichts davon zu sehen. Und bei 165 Hz waren diese Linien gelb/orange. Man kann davon auch kein Screenshot oder Video machen, da sieht man diese Linien nicht.

Aber zurück zum eigentlichen Thema: Ein Wechsel auf 4K würde einen relativ großen FPS-Verlust bedeuten. Das würde ich denke ich aber noch in Kauf nehmen können weil ich keine kompetitiven Spiele spiele sondern eher Singleplayer Spiele. Zur Zeit wären das z.B. Cyberpunk 2077, GranBlue Fantasy ReLink, Final Fantasy VII Rebirth und Black Myth Wukong möchte ich mir auch holen.

Das größere Problem wäre dann wohl eher der VRAM-Verbrauch. Meine Karte hat "nur" 16 GB VRAM und ich habe gesehen, dass es bereits zwei Spiele gibt, die diese 16 GB VRAM sprengen. Ein Mal das neue Indiana Jones und zum anderen Alan Wake 2, was zumindest sehr nah auf 4K an den 16 GB VRAM kratzt. Jetzt stellt sich mir natürlich die Frage, wie das dann bei zukünftigen Spielen aussieht. Werden die dann noch VRAM-hungriger sein, sodass ich mit den Details runtergehen müsste um die Spiele auf 4K spielen zu können oder wird es Lösungen geben, die den Verbrauch reduzieren werden? nVidia arbeitet ja wohl schon an der rtx neural texture compression, aber wann das erscheint und wie viel es bringt ist halt noch unklar.

Dann wäre noch die andere Sache... OLED Monitore. Sehen wunderschön aus, aber das Risiko auf Einbrennungen macht mich verrückt. Da gibst du je nach Zoll (27 oder 32 Zoll wären bei mir wohl die Optionen) 600-1000€ für so einen Monitor aus und musst den dann noch Babysitten, damit er länger hält. Ich weiß, dass neuere Monitore eine 3 Jahre Garantie auf Burn-In haben. Ist eine tolle Sache aber wenn ich mir einen so teuren Monitor hole will ich den auch länger nutzen. Also könnte man den dann vielleicht im Bestfall einmal umtauschen und wenn nach den 3 Jahren dann nochmal Burn-In auftritt hat man Pech gehabt. Und soweit ich weiß sind Einbrennungen bei der Technologie unvermeidlich. Du kannst es halt hinauszögern, aber nicht vermeiden. Deshalb bin ich da eher zwiegespalten. Und Text Fringing ist wohl bei der Mehrheit der OLED-Monitore auch ein Problem wie ich gesehen habe.

Mini LED kommt für mich persönlich nicht in Frage. Als ich welche im Media Markt von der Seite gesehen habe fand ich das nicht schön. Der Betrachtungswinkel und die Dimmzonen spielen hier wohl eine sehr große Rolle. Auch das Blooming scheint relativ stark auszufallen.

Mir wäre ein 32 Zoll Monitor lieber. Ich würde den Monitor nicht nur zum Zocken nutzen sondern auch zum Lesen, normales Surfen im Internet und um Serien damit zu schauen. 27 Zoll sind mir irgendwie zu klein geworden, gerade weil ich viel lese und merke, dass ich so langsam damit anfangen muss die Zoomfunktion zu nutzen um vernünftig was sehen zu können.

Dann gibts noch die Möglichkeit auf 21:9 Ultrawide umzusteigen. Bin ich aber ehrlich gesagt nicht so der Fan davon, weil viele Spiele das wohl noch gar nicht unterstützen und auch hier würde man wohl mehr FPS verlieren im Vergleich zu einem "normal großen" Bildschirm.


Was meint ihr? Was macht am meisten Sinn?
 
Herzlich willkommen im Forum!

Ich habe Cyberpunk in 4k mit Raytracing auf einer RX 6800 gezockt. Alle Regler fast ganz rechts.
Man muss die Optionen ein bisschen mit Verstand bedienen und das ist kein Problem.

Ansonsten bekommt man mit bekloppten Einstellungen auch eine 5090 im Quad-SLI klein. ;)

Will sagen:
Mach dir keinen Kopf um die FPS und genieß das bessere Bild von 4k.

Eine Karte zum Preis der 5080 mit nur 16GB VRAM würde ich aber tatsächlich nicht kaufen.
Die potentielle Problematik hast du richtig erkannt.

Wer sich dessen bewusst ist und weiß, dass der VRAM kein Problem sein wird kann natürlich zugreifen.
 
  • Gefällt mir
Reaktionen: z-R-o- und Ginryuu
Persönlich bin ich ein Fan von 21:9 Ultrawide. Früher in 3440x1440@144Hz, mittlerweile auf 5120x2160@120Hz umgestiegen.

Ultrawide schafft meistens ~80% der fps der äquivalenten 16:9 Auflösung.

Bisher hatte ich mit einer 4090 keine Probleme, auch in Cyberpunk nicht. Weil....

Ginryuu schrieb:
Das größere Problem wäre dann wohl eher der VRAM-Verbrauch. Meine Karte hat "nur" 16 GB VRAM und ich habe gesehen, dass es bereits zwei Spiele gibt, die diese 16 GB VRAM sprengen.
Manchmal muss man dann halt die Regler für mehr nutzen als nur alles auf 'Maximum' stellen.

DLSS kann auch hilfreich sein - wobei das eher für die FPS als für den VRAM Bedarf gilt.

Ginryuu schrieb:
Bin ich aber ehrlich gesagt nicht so der Fan davon, weil viele Spiele das wohl noch gar nicht unterstützen
Eigentlich primär alte Spiele
Und von denen können viele auch mit Auflösungen wie FullHD nichts anfangen, wenn die für 4:3 und 5:4 programmiert wurden

Ich habe schon seit Jahren 21:9 und mir ist bisher kein aktueller Titel unter gekommen, der damit nicht klar kam.
... wobei ich auch nur wenige Titel im Jahr spiele.
 
  • Gefällt mir
Reaktionen: Odessit, entengruetze und Ginryuu
Wow, geht ja schnell hier mit den Antworten. :-)

@|Moppel| Ursprünglich war eine 4070 Super geplant mit der ich 1440p spielen wollte.
Allerdings wurden die Karten dann gegen Ende des letzten Sommers/im Herbst so langsam immer teurer und haben dann gegen Ende 2024 plötzlich 700€ und mehr gekostet. Eine Zeit lang gab es sie für 550€ aber da konnte ich noch nicht wechseln weil ich andere Sachen abbezahlen musste.

Dann kam aber mit der 50er Serie Multi Frame Generation und ich hab mir gesagt... Gut OK, versuchst du jetzt eine 5080 zu bekommen und nutzt die dann so lange wie es geht. Denn ich bin jemand, der nicht alle 2 Jahre seine Grafikkarten upgraded.

Aber da mein nächster Monitor mindestens 32 Zoll haben sollte komme ich dann wohl nicht um 4K herum, auch wegen der PPI nicht. Ist halt nur die Frage welcher es sein soll. Der Asus ROG Strix OLED XG27ACDNG hatte mir an sich ziemlich gut gefallen, ist aber ein OLED und auch "nur" 27 Zoll WQHD. Den Schritt mit OLED will ich eigentlich nicht gehen wegen der Einbrenngefahr. Auf reddit gibts zum Beispiel für den Alienware AW3423DWF einige Beiträge über Burn-In. Der Monitor ist zwar schon länger auf dem Markt und die dritten Generationen der Bildschirme sollen etwas besser sein aber ist halt im Endeffekt schade um das Geld, selbst wenn man 3 Jahre Garantie drauf. Kann ja nach der Zeit ein Burn In auftreten, und dann hat man Pech gehabt.


@Rickmer OK, aber eine 4090 hat auch 24 GB VRAM und kommt somit nicht so schnell an ihre Grenzen wie eine 5080. Und das wäre dann der nächste Punkt der entscheidend wäre, den du bereits erwähnt hast: Bei Ultrawide-Monitoren verliert man auch nochmal ein bisschen was an FPS verglichen zu den Standard-Monitoren mit 16:9.

DLSS ist sicherlich ein hilfreiches Feature und scheint selbst bei 4K auch erst mal dicke auszureichen.
Ist halt nur die Frage wie lange das der Fall bleiben wird. Dahingehend hab ich halt so meine Zweifel, dass 4K dann noch in den nächsten Jahren für mich spielbar sein wird.

Zur Unterstützung: Ich hatte schon gelesen, dass es von Jahr zu Jahr besser wird.

Wenn du aber schreibst, dass es eher bei älteren Titel der Fall ist, dass diese keine Unterstützung bekommen dann könnte ich damit wohl leben.
 
Also schnell noch 7900 XT(X) kaufen oder irgendwo eine 4090 auftreiben oder halt direkt zur 5090 greifen. Weil 16 GB und 4K geht ja mal gar nicht. Und da auch AMD demnächst in dem Bereich erstmal nichts anbieten wird, dass "Flaggschiff" von RDNA4 wird auch nur 16 GB haben, muss man ja kaufen, was man noch irgendwie kriegen kann.

Nein. Ernsthaft. Mit einer 5080 kann man wunderbar auch in 4k daddeln, wenn man Regler bedienen kann. Wie btw. mit jeder Grafikkarte... Auch die nächsten Jahre noch.

Und vom VRAM-Monster unterm Bett zum OLED-Einbrenn-Monster im Schrank.
 
  • Gefällt mir
Reaktionen: AwesomSTUFF und Kama434
ich spiele fast alles mit einer 6700XT in 4k und binzufrieden. ICh denke, dass das sehr subjektiv ist :)
 
  • Gefällt mir
Reaktionen: atze303 und kachiri
Wie kannst du mit einer 12 GB Karte in 4k spielen. UMG.
 
madmax2010 schrieb:
ich spiele fast alles mit einer 6700XT in 4k und binzufrieden. ICh denke, dass das sehr subjektiv ist :)

Dann aber mit mittleren Details in den Einstellungen, oder?
WENN ich auf 4K umsteigen sollte dann will ich auch wenigstens alle Details so hoch wie möglich nutzen können. Denn ansonsten kann ich auch auf 1440p bleiben und dort alles auf Maximum lassen.

@kachiri Bei der OLED-Thematik stütze ich mich vorallem auf ein Video von Monitors Unboxed der erst kürzlich mal den Test gemacht hat:

Die Ergebnisse sind halt schon ziemlich erschreckend.
 
In einem realitätsfernen Extremtest in dem Burn-In regelrecht provoziert wurde.
Ergänzung ()

Ginryuu schrieb:
WENN ich auf 4K umsteigen sollte dann will ich auch wenigstens alle Details so hoch wie möglich nutzen
Ja. Dann ab. 5090 kaufen.
 
  • Gefällt mir
Reaktionen: BarBaer und AB´solut SiD
@kachiri So realitätsfern ist das gar nicht.
Denn es gibt genug Leute die ihren Rechner im Home Office nutzen oder generell mehrere Stunden am Tag am Rechner verbringen wegen Bild - und Videobeabeitung etc. Und dahingehend macht dann so ein Test schon Sinn.

Und ja, dass das provoziert wird steht ja auch schon im Videotitel (deliberately = absichtlich)

Eine 5090 kommt nicht in Frage, zumal es da ja gerade auch Probleme mit Kabelbränden zu geben scheint. Ich weiß nicht ob es nur die Founders Edition betrifft oder auch andere Versionen, aber das ist mir das Risiko nicht wert.
 
  • Gefällt mir
Reaktionen: Poink und Baal Netbeck
och mir reichen so 40-60FPS
der VRAM reicht schon auch.. Hogwarts Legacy, Witcher 3 Remastered und Horizon zero dawn laufen auf hoch ganz brauchbar.
Bei Assassins creed muss ich auf mittel gehen.
Ich kann diesen "Mehr FPS" wahn nicht verstehen. Bis 60FPS meinetwegen., aber ab da sind mehr fps doch immer weniger lohnenswert. Wenn man um 20k Euro Preisgeld professionell spielt, ist das wohl was anderes, aber ich spiele nicht beruflich..
Als meine Familie fuer meinen Bruder und ich zusammengelegt hat um den ersten Spiele PC zu kaufen kostete der 300 Euro und schaffte in vielen spielen kaum die 20FPS stabil. Ziel waren meist 30.
Ich habe beruflich so viel tolle Hardware, gegen die eine 5090 Spielzeug ist, dass sowas zuhause den Reiz verloren hat. Flüssig spielbar passt schon
 
  • Gefällt mir
Reaktionen: kachiri, AB´solut SiD und Ginryuu
Du kannst ja schonmal mit deinem jetzigen Monitor eine Virtuelle 4K Auflösung nutzen und ausprobieren, wie sich die Spiele spielen lassen.

FPS sind auch eine Form von Bildqualität, da sich die Schärfe in Bewegungen erhöht und flüssigere Bewegungen besser aussehen....und aus meiner Sicht ist der Input Lag der größte Punkt.
Das ist aber sehr subjektiv...ich mag kein first Person Spiel unter 70-80 FPS...lieber habe ich noch deutlich mehr.
Und da kann auch Reflex/Antilag keine Wunder bewirken.

Natürlich sind 4K auch toll.
Viele Spiele haben heutzutage tolle Texturen, die dann in 4K auch auf einige Meter Abstand eine feine Strucktur erkennen lassen...gewebte Stoffe z.B.
Und in 1440p ist es schon ein Schritt zurück und die Auflösung kann die Struktur des Stoffes nicht darstellen und es sieht matschig aus.
Feine Details in weiter Entfernung sind hübscher und auch das Aliasing ist schwächer..und die AA Maßnahmen funktionieren deutlich besser.

Ob die 16GB da länger ausreichen werden, kann dir keiner vorhersagen, aber ich würde sagen, dass 16GB im Moment für hübsche Texturen ausreicht und wenn du dann in Zukunft High statt Ultra Texturen wählen musst, werden die "high Texturen" der Zukunft vermutlich den jetzigen Ultra entsprechen....es wird hoffentlich weiterhin gut aussehen.

Aber natürlich ist es traurig, dass Nvidia die 5080 mit kritisch wenig VRam ausstattet und damit ihre Nutzungszeit künstlich einschränkt.

OLED würde ich nur als reinen Gaming Einsatz kaufen.
IPS ist für gemischten Betrieb aus meiner Sicht besser.

Was die Auflösugn angeht, solltest du dir die Leistung mal "erfühlen" und dann weiter gucken.
 
  • Gefällt mir
Reaktionen: DannyA4, Poink, HisN und eine weitere Person
Wenn du den Oled nur für zocken nutzt und einen anderen für Office, surfen und Co brauchste dir keine Gedanken machen.
Wenn auf dem Oled alles gemacht wird, dann vielleicht Taskleiste ausblenden undsowas aber eigentlich reicht es einen Bildschirmschoner zu aktivieren der nach 2,3 Minuten losgeht, wenn du mal nichts machst.
Das Leben ist kurz, Oled ist geil. Worth
 
  • Gefällt mir
Reaktionen: Odessit
@Baal Netbeck Danke, der Beitrag hilft mir doch schon mal etwas weiter.

OLED fällt dann für mich weg, weil ich den PC eben nicht nur zum Zocken nutze und ihn generell auch arbeitsbedingt lange am Tag an habe. Das würde das Risiko auf Einbrennungen sicherlich etwas erhöhen, selbst wenn man die gängigen Tipps befolgt und bewegliche Hintergrundbilder nutzt, den Dark Mode überall anschmeißt und die Taskbar + Icons auf dem Desktop ausblendet.

Ja bei der Auflösung muss ich dann mal schauen. Bisher hatte ich immer nur ganz normale 16:9 Bildschirme, deswegen kann ich das noch nicht so ganz einordnen ob und wie mir Ultrawide zusagen würde.

Wenn du schreibst, dass die Texturen dann später immer noch auf High ausreichen dann ist das doch schon mal ein Anfang. Damit könnte ich schon noch leben.

Das mit der virtuellen Auflösung austesten ist eine gute Idee, daran habe ich noch gar nicht gedacht.

@Shakyor Leider habe ich nicht genug Platz auf meinem Schreibtisch für zwei Bildschirme. Deswegen müsste ich den OLED dann eben auch für Office-Anwendungen nutzen. OLED ist wirklich schön, keine Frage. Aber ich hab da echt Paranoia mit den Einbrennungen, gerade weil ich den Rechner sehr lange jeden Tag benutze.
 
  • Gefällt mir
Reaktionen: hans_meiser und Baal Netbeck
Du hast die Karte da?
Stell DSR an und probier aus was in 4K rauskommt, und wie das für Dich funktioniert, anstatt uns zu fragen.
Feature der Karte, haste bezahlt. Benutze es doch bitte :-)

1739835234290.png



Aber nicht DL-DSR nutzen^^ Das sind die verlustbehafteten Auflösungen. Schön nativ DSR nutzen und dann im Game 4k auswählen und DLSS und FR, und schon weißte wo Du ankommst.

Ist zwar ein bisschen doppelt gemoppelt, aber um zu sehen wie viel FPS man hat und ob das VRAM ausreicht .... kein Problem. Genau dafür isses perfekt. Bildet es 1:1 ab.
Nicht mehr raten und 100 Leute auf der Straße fragen müssen :-)
 
  • Gefällt mir
Reaktionen: retrozerky, AwesomSTUFF, Baya und 3 andere
@HisN Danke für die Erläuterung. Musste selber erst mal kurz Googlen wie das geht.
Werde das aber direkt mal ausprobieren und schauen wie es sich in Cyberpunk macht.

Edit: So, ich habe es jetzt mal ausprobiert und muss sagen, dass sich alles weiterhin flüssig spielen ließ.
Ich hatte nur das Gefühl, dass sich die Mausbewegungen etwas langsamer angefühlt haben aber ansonsten war alles prima.
 
Zuletzt bearbeitet:
Ich habe hier einen 4K stehen und einen WQHD, beide 27Zoll. Meine 4080 macht nirgends Probleme, ich spiele trotzdem in WQHD. Man „verliert“ schon ordentlich FPS in 4K. Ich bin übrigens weder bei Alan Wake 2 , noch bei Indiana Jones an die Grenze von 16GB gekommen. Die 5080 wird auch keine Probleme bekommen. Ich finde übrigens den 4K Hype vernachlässigbar.
 
  • Gefällt mir
Reaktionen: Ginryuu
@Firefly2023 Ich denke, dass es auch stark drauf ankommt welche Spiele man selber priorisiert.
Jemand, der sehr viele Ego-Shooter oder eSport-Titel spielt der wird vermutlich FPS bevorzugen und das ist auch nachvollziehbar.

Aber jemand, der eher Singleplayer Rollenspiele spielt, der ist da nicht so stark drauf angewiesen und will lieber die Grafik beim Spielen genießen. Und ich gehöre eher zur zweiten Kategorie würde ich sagen. Früher habe ich zwar viel Counter Strike gespielt aber die Zeiten sind vorbei.
 
  • Gefällt mir
Reaktionen: BarBaer und madmax2010
Ein BF4, 2042, oder aber CoD 6 laufen auch in 4K bei hohen FPS Zahlen, ersteres ist sogar auf 240 gekappt.
Also da ist auch Multiplayer Spass, bzw Ergernis, je nachdem, angesagt, ohne das es ruckelt.
 
@Ginryuu von WQHD zu 4K sind es halt etwa 40% Mehrleistung die gefordert wird, würde ich mir an deiner Stelle gut überlegen, einmal was das künftige aufrüsten angeht um dies entsprechend zu verschieben und ob du in Zukunft bereit bist entsprechend hohe (bzw. immer höhere) Beträge zu zahlen, um einigermaßen vernünftig in hohen Details über einige Jahre dann in 4K zocken zu können
Ergänzung ()

Ginryuu schrieb:
Jemand, der sehr viele Ego-Shooter oder eSport-Titel spielt der wird vermutlich FPS bevorzugen und das ist auch nachvollziehbar.
man kann auch in 4K wunderbar in high FPS Bereichen zocken, nur dann halt nicht mit allem auf Anschlag
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben