Gaming Monitor für RTX 4090

cyberpirate schrieb:
ich würde nur noch in Ultrawide zocken wollen.
Also wenn ich mich nah genug vor meinen 42 Zoll 16:9 klatsche, dann ist mir das mehr Immersion, als wenn ich da 24:10 (mit Rändern) einstelle, was dann glaube ich einem 38 Zoll QHD+ entsprechen würde. Curved reißt es da für mich auch nicht mehr raus.

cyberpirate schrieb:
Auch möchte ich natürlich in der nativen Auflösung zocken und nicht in irgendwelchen erzwungenen Auflösungen die dann eher nicht so optimal in der Darstellung sind.
Wieso? am LG C2 ist da jeder Pixel nativ ein Pixel wenn du 3840x1600 einstellst. Praktisch nutzt du da einfach die restlichen Pixel nicht.

Die Sache ist halt auch, dass jeder 24:10 Monitor so teuer, oder teurer ist, als der C2 und außer curved und ggf. etwas mehr Hz nicht wirklich Vorteile bietet, aber einige Nachteile gegenüber OLED.
 
Zuletzt bearbeitet:
Das die 4090 klar eine UHD Karte ist wurde ja schon mehrfach geschrieben. Mit WQHD ist da mal krass Geld verbrannt worden.

Auch verstehe ich nicht wieso man für 2k eine GPU kauft und dann am Monitor spart.
Dann hat halt jede PS5 am LG OLED ein besseres Bild als deine 4090 an irgendeinem WQHD Gamingschrottmonitor.

Also ich verstehe das Gesamtkonzept des Systems nicht, sorry :freak:

Aber um noch was konstruktives beizutragen, ich finde bei den "billigen" Monitoren haben die LGs noch das beste Bild. 27GP850 oder sowas.

Edit: Ich Esel hab' den Beitrag direkt drüber natürlich nicht gelesen, sorry und vergiss den hier. GZ zum LG, den hab' ich meinen Kids gekauft.
 
Zuletzt bearbeitet:
Es ist richtig, dass die 4090-Grafikkarte eine UHD-Karte ist und dass ein WQHD-Monitor das volle Potenzial der Karte nicht ausschöpft. Es gibt jedoch mehrere Faktoren, die bei der Wahl des Monitors berücksichtigt werden müssen, wie z.B. die Bildwiederholrate, die Farbgenauigkeit und die Eingangsverzögerung.

Es gibt möglicherweise Gründe dafür, warum jemand eine 4090-Grafikkarte auf einem WQHD-Monitor verwendet. Zum Beispiel könnte der Benutzer den Monitor bereits besitzen oder eine höhere Bildwiederholrate bevorzugen.

Es ist jedoch wichtig zu beachten, dass eine höhere Auflösung nicht unbedingt zu einer besseren Leistung der Grafikkarte führt. Andere Faktoren können ebenfalls die Leistung beeinflussen.

Insgesamt kann man sagen, dass die Wahl des Monitors von verschiedenen Faktoren abhängt und es möglicherweise Gründe gibt, warum jemand eine 4090-Grafikkarte auf einem WQHD-Monitor verwendet.
 
  • Gefällt mir
Reaktionen: Fabifablos
Ist natürlich richtig. Ich denke halt, wenn der Monitor ein Preis-Cap von 600 Euronen hat, hätte eine 4080 auf z.B. einen Alienware QD OLED oder einem LG42 Zoll OLED ein sehr viel besseres Bild geliefert.

Aber klar, wenn es ein 27 Zoll sein muss, warum auch immer, und Geld eigentlich keine Rolle spielt ist es wurscht.

Hat nicht jeder ein HDR Fetisch wie ich. 🤩

Wobei mir trotzdem nicht klar ist, welche "Faktoren" das sein sollen, weswegen man eine 4090 für WQHD braucht.
 
Fabifablos schrieb:
Wobei mir trotzdem nicht klar ist, welche "Faktoren" das sein sollen, weswegen man eine 4090 für WQHD braucht.

Da reicht ein einziger: Raytracing.

Screenshot_2023-03-05-23-09-08-174_org.mozilla.firefox.jpg


Screenshot_2023-03-05-23-09-23-519_org.mozilla.firefox.jpg


Screenshot_2023-03-05-23-09-31-909_org.mozilla.firefox.jpg



Wer das keine Abstriche machen möchte, die entsprechenden Spiele spielt und gern dreistellige FPS hat, für den ist die 4090 gerade so ausreichend in WQHD.
Die Frametimes rutschen hier schon teilweiße unter 60!

Ob die Spiele schlecht optimiert sind spielt da nichtmal eine Rolle, denn sie sind nunmal, wie sie sind.

Und die Anforderungen werden in zwei oder drei Jahren nicht niedriger sein als heute.
Was will man dann bei dem Anforderungsprofil mit ner 4080?

Ich gehe sogar soweit, dass die 4090 für 4k für bestimmte Anforderungen heute schon zu langsam ist (da schaffen die oberen Spiele mit RT nämlich keine dreistelligen FPS. Cyberpunkt ist ja selbst in WQHD noch ein Brocken).
 
Zuletzt bearbeitet:
Wer keine Abstriche machen möchte, müsste eigentlich in FHD zocken mit der 4090.
Oder noch geringer.
Alles andere ist nur ein kleinerer Kompromiss, oder Selbstbeschiss/Doppelmoral.
Wie man es gerne nennen möchte.
Kein Angriff, nur eine Meinung.

Denn die „keine Abstriche“ User bewegen in der Regel auch nicht alle Regler nach rechts, sondern vergessen gerne den einen oder anderen und erzählen trotzdem allen das es Max ist :-)

Für mich ähnelt die Kombination von 2000 Euro Graka und 300 Euro Monitor wie ...
Ich kauf mir einen AVR für 2000 Euro, und hänge dann 300 Euro Brüllwürfel dahinter. Natürlich 11 Stück, denn der AVR kann das ja^^

Wie gesagt, kein Angriff, nur Meinung. Bitte nicht auf den Schlips getreten fühlen. Hier ist niemand persönlich angesprochen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ALDeeN1982 und JetLaw
Sicher das bei den Benchmarks DLSS an ist? Ich hab schon mit der 2080 und der 3080 WQHD mit RT gespielt und keine großen Probleme. Die 3080 am Ende sogar UHD.

Grüße!
 
Ist DLSS benutzen jetzt eigentlich ein Abstrich oder kein Abstrich?
 
Bei „Qualität“ sehe ich keinen Unterschied. Außerdem war DLSS für RT von Anfang an eingepreist.

Abgesehen davon, selbst wenn irgendwer den Unterschied merkt, dürfte der Abstrich einen 300€ IPS Monitor zu benutzen ohne Zweifel schwerer wiegen.

In meiner Wahrnehmung macht die PS5 mit OLED ein besseres Bild als eine 4090 an einem WQHD IPS. Ich hab diese Spielsachen im übrigen hier auch rumstehen und hatte die 4090 schon mal an einem 27 Zoll IPS, auch wenn ich den nicht mehr benutze.
 
Also ich sehe da einen deutlichen Unterschied, besonders an Objekt-Kanten. Kann natürlich am hoch aufgelösten Monitor liegen^^

Deshalb frag ich ja die "keine Abstriche-Fraktion" ob DLSS jetzt ein Abstrich oder kein Abstrich ist^^
Ich finde das nämlich auch nicht so einfach zu beantworten.
 
Also ich finde, dass glatte Kanten und dünne Linien (Maschendrahtzaun, Stromleitungen, etc) mit DLSS sogar besser aussehen, weil sie glatter wirken und oft nichtmehr aus dem Bild flimmern.

Klar kann sowas auch individuell unterschiedlich sein, es gibt bei bestimmten Displays ja auch Farbverschiebungen bei Bewegung die manche Spieler sehen und andere nicht. Bei Frame-Generation entstehen z.B. auch komische Artefakte die nicht jedem auffallen.

Trotzdem würde ich mal behaupten, dass in der Presse ein Konsens herrscht nach dem DLSS 2.0 kaum von nativ zu unterscheiden ist und die negativen und positiven Unterschiede, die es natürlich gibt, sich die Waage halten. Dafür gibt es dann ziemlich viel Mehrleistung. Ausserdem hab' ich die ollen Tensor Cores ja auch bezahlt, dann sollen die auch was schuften.

Dazu kommt, dass mMn bisher für "detailreiches" RT immer DLSS benötigt wurde um ordentlich auf fps zu kommen, dass jetzt mit Erscheinen einer GPU die das auch teils nativ schafft, plötzlich die Notwendigkeit um die Ecke kommt Raytracing-Games nativ zu rechnen erscheint mir sehr .... konstruiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ALDeeN1982
Fabifablos schrieb:
Trotzdem würde ich mal behaupten, dass in der Presse ein Konsens herrscht nach dem DLSS 2.0 kaum von nativ zu unterscheiden ist

Die Presse ist für die eigenen Ansichten aber Gott sei Dank nicht ausschlaggebend ;)

Und manchen reicht eben schon dieses kleine Wörtchen "kaum" bei "kaum zu unterscheiden".


Fabifablos schrieb:
Dazu kommt, dass mMn bisher für "detailreiches" RT immer DLSS benötigt wurde um ordentlich auf fps zu kommen
Ja, fand ich auch bisher immer schlecht.
Meiner Meinung nach gab es noch nie eine echte WQHD oder 4K fähige Raytracingkarte.

Die 4090 ist sozusagen die erste, die das halbwegs bei manchen Spielen schafft.

Jeder hat eben seine eigene Einstellung zu dem Thema, und du hattest nunmal nach Gründen für eine 4090 in WQHD gefragt.
 
Cronos83 schrieb:
Die 4090 ist sozusagen die erste, die das halbwegs bei manchen Spielen schafft.

Jeder hat eben seine eigene Einstellung zu dem Thema, und du hattest nunmal nach Gründen für eine 4090 in WQHD gefragt.
Okay, ich selbst sehe das Problem mit DLSS zwar nicht, aber natürlich kann ich mir vorstellen, dass es Leute gibt, die da Augenkrebs von kriegen. Ich hab' selber genug Ticks.

Also 4090 für natives Raytracing, hab ich kapiert. Danke, Grüße und frohes zocken! 🖖
 
  • Gefällt mir
Reaktionen: Cronos83
Also ich kann mir auch keinen größeren Monitor auf dem Schreibtisch vorstellen als 27 " und WQHD .
Ich habe 70 Cm Abstand zum Monitor ,und als Brillenträger extra eine Brille für diesen Bereich anfertigen lassen .
Ich habe aber nebenbei eine andere Frage zum Monitor in 27 " und WQHD ,da ich momentan einen mit Gsync habe und eine RTX 2070 ,aber evtl. in der Zukunft mal andere GK verbaut werden ,gibt es jetzt nicht schon Hersteller die Gsync und Freesync in einem Gerät unterstützen oder habe ich da etwas falsch verstanden ?

Wenn dem so ist ,welcher ist dann da sehr schnell (ab 144 Hz) ?
Danke
 
Hast Du falsch verstanden. Nvidia kann genau so Freesync wie Gsync.
 
Quasi alle neuen Monitore die eine Form von adaptive sync, also freesync oder sowas haben können auch von nVIDIA Karten angesteuert werden. Das heißt dann "g-sync kompatibel". Hat sogar ein eigenes Logo auf der Verpackung.
Der Vorteil ist
1. geht auch mit AMD und
2. braucht für UHD keinen Lüfter.

Einen Unterschied zwischen G-Sync und G-Sync kompatibel sehe ich nicht. Im Gegenteil, hab' mit Adaptive Sync im Vergleich gar kein Tearing mehr. Allerdings ist der "echte" G-Sync Monitor auch schon etwas älter gewesen. Wahrscheinlich liegt das bessere Bild aber an dem Wechsel von WQHD auf UHD, das hilft auch gegen tearing.

Rein theoretisch kann das echte G-Sync die Monitor Frequenz noch stärker abregeln, glaube bei Freesync ist früher Schluss. Wer sich aber G-Sync kauft, hat auch ne GPU die nicht so hart dropt. Von daher mMn unnütz.
 
Zuletzt bearbeitet:
Danke ,also um für die Zukunft Up to Date zu sein ,braucht man irgendwann so einen Monitor .
 
Zurück
Oben