Notiz Samsung C49RG90: Preis und Spezifikationen zum 5K-120Hz-HDR-Monitor

hollalen schrieb:
Mit gsync wäre der genial für star citizen. Wenn das fertig ist gibt's dann auch die Grafikkarte die den Monitor mit entsprechenden fps bespielt :)

Also 2030 dann?

Der Monitor ist schon ein schönes Teil. Aber bei der Auflösung brauchst du auch entsprechende Hardware, um das Ding zu befeuern, wenn man denn damit spielen will. Und das scheint ja der angepeilte Primärnutzen zu sein.
 
Diese Werte bei einem 38"er bei 24:10 für 1000€, mit vernünftiger FreeSync umsetzung auch mit Nvidia GraKas und gut ist.
Diese ultra breite und schmale Monis sind zu extrem schlitzi 😉
 
benneque schrieb:
@RichieMc85 wofür zur Hölle brauchst du (oder sonst irgendwer - abgesehen von Nvidia für die Einnahmen und Kundenbundung) GSync?

Niedriger Input Lag dank des NV Scaler. Bei dem Preis muss das dabei sein.
 
@RichieMc85 das ist Unfug. FreeSync Monitore können (nicht müssen!) genau so gut performen wie GSync Modelle. Der entscheidende Unterschied ist, dass NVIDIA vorschreibt, dass ein gewisser Standard eingehalten wird, wohingegen bei FreeSync alles erlaubt ist.
Soll heißen: du wirst absolut keinen Unterschied zwischen einem GSync und FreeSync Monitor bemerken, wenn Panel und sonstige Specs identisch ist.
Es gibt dazu haufenweise Tests im Netz, die belegen, dass FreeSync nicht schlechter sein muss, wenn der Monitor Hersteller es ordentlich gemacht hat.
 
benneque schrieb:
@RichieMc85 das ist Unfug. FreeSync Monitore können (nicht müssen!) genau so gut performen wie GSync Modelle. Der entscheidende Unterschied ist, dass NVIDIA vorschreibt, dass ein gewisser Standard eingehalten wird, wohingegen bei FreeSync alles erlaubt ist.
Soll heißen: du wirst absolut keinen Unterschied zwischen einem GSync und FreeSync Monitor bemerken, wenn Panel und sonstige Specs identisch ist.
Es gibt dazu haufenweise Tests im Netz, die belegen, dass FreeSync nicht schlechter sein muss, wenn der Monitor Hersteller es ordentlich gemacht hat.

TFT Central:
We measured a total display lag of only 3.3ms. We estimate that pretty much all of that will be a result of the pixel response times and so can infer that there is basically zero processing lag at all. This isn't an exact science but provides a good indication of what the signal processing lag is. We have seen similar behaviour from some other G-sync screens such as the Dell Alienware AW3418DW and Asus ROG Swift PG279Q for instance which had basically no signal processing lag and would be directly comparable in this area.
The G model was quite a lot faster than the F model which had shown an estimated 9.70ms of signal processing lag. While the G-sync module might be holding the screen back in some places, it does at least allow for a super-low lag.

Der Scaler von NV ist nicht zum Spaß verbaut. Freesync ist G-Sync wie man klar sieht unterlegen. Spiegelt sich ja auch am Preis wieder. Als NV Nutzer will ich einfach die beste Lösung zumal ich nicht sehe, dass ich in den nächsten Jahre einen Grund bekomme wieder ne AMD Karte zu kaufen. Das für mich einzig interessante High End Segment, welches man bei solchen Auflösungen benötigt, hat AMD sowieso aufgegeben.
 
@RichieMc85 wenn dir das so wichtig ist, musst du halt in den sauren Apfel beißen und dir nen G-Sync Ultimate Monitor oder Nvidias neue BFGDs kaufen.
Geizhals G-Sync HDR

Wobei ich mir eher nen 2019er LG OLED mit HDMI 2.1 (VRR + 4k 120+Hz Chroma 4:4:4) holen würde, anstatt eines 65 Zoll großen FALD Monitor für 4000€ ohne eingebauten TV Tuner.
 
@RichieMc85 Ja, natürlich hat es mit dem Scaler von Nvidia zu tun. Das bestreitet auch niemand.

Das "Problem" (und gleichzeitig der Vorteil) ist, dass in FreeSync Monitoren ein beliebiger Scaler drinstecken kann. Für ein billigen (nicht günstig) Monitor wird dann halt der 50ct Scaler von der Resterampe verbaut. Aber genau so besteht auch die Möglichkeit einen Scaler zu verbauen, der genauso gut (oder sogar noch besser) als der von Nvidia ist.
Es gibt halt einfach nur kein Qualitätssiegel, wie bei GSync. Da kann man blind einen Monitor kaufen und weiß, dass der Scaler schnell und gut arbeitet.

In deinem Beispiel wurde halt einfach ein bescheidener Scaler im FreeSync Monitor verbaut. Der Preisunterschied muss ja auch irgendwo herkommen. Der GSync Scaler ist nicht grundlos so teuer. Ja, natürlich stecken da haufenweise Nvidia Gebühren drin, aber eben auch teure Technik bzw. Entwicklungskosten.

Und mit FreeSync 2 sollte sich das eigentlich auch so ziemlich erledigt haben, indem für FreeSync 2 bestimmt Mindestspezifikationen eingehalten werden müssen: LFC, HDR und Low Latency. Natürlich wird dort auch weiterhin dann gute und nicht so gute FreeSync 2 Monitore geben. Aber man kann bei Monitoren mit FreeSync 2 von einer gewissen Qualität ausgehen, wohingegen bei FreeSync 1 alles und nichts möglich war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS
Ein sehr schickes Gerät. Da könnte man direkt überlegen, nicht nur den Hauptmonitor, sondern auch gleich den Zweitmonitor zu ersetzen, breit genug wäre der hier ja, um keine Arbeitsfläche zu verlieren.

Wenn da nur nicht der Preis wäre... 1700€ sind schon 'nen ordentlicher Batzen...

C1996 schrieb:
Das ist aber sowas von kein 5K :D

Doch ist es. Es hat eine horizontale Auflösung größer als 5000 Pixel, daher auch 5k. 4k heißt auch nur, eine horizontale Auflösung von >=4000 Pixeln, nicht mehr.
 
@MaverickM In welcher Schule hast du Mathematik gelernt? Da möchte ich meine Kinder nicht hinschicken, wenn bei dir 3840 > 4000 ist :D
 
UltraHD ist auch nicht 4k.

Ich zitiere Wikipedia zum Thema 4K:
Die Abkürzung „4K“ wurde schon in der Frühzeit der Computertechnik als Binärpräfix verwendet, um eine Speicherkapazität von 4096 beziehungsweise im Dualsystem 212 Speicherworten zu kennzeichnen. Der groß geschriebene Buchstabe „K“ lehnte sich an die Abkürzung „k“ des international standardisierten Präfixes Kilo an, der für den Faktor 1000 steht.[4] Die Abkürzung 4K bedeutet also streng genommen 4096 und wird allgemein aber auch zur Klassifizierung von Zahlen im Bereich um 4000 verwendet.
Quelle: https://de.wikipedia.org/wiki/4K_(Bildauflösung)#Geschichte

Also immerhin hab ich auf meiner Schule gelernt, Wikipedia zu bedienen. ;)
 
Und wie du richtig zitiert hast: "um 4000", nicht "über 4000". ;)
 
Dann hat dieser "5K" Monitor mit 7,4 mio Pixeln also weniger als ein 4K Monitor mit 8,3 mio Pixeln. Klingt logisch.
Der Samsung C49RG90 ist lediglich ein dual 1440p oder auch super ultra wide 1440p.
Die Bezeichnung 5K ist nur ein Marketing-ding weil 5K dem traditionellen 4K überlegen klingt soll ;)
Echtes 5K wären 5.120 x 2.880 (14,8 mio) . Also doppel so viele Pixel wie dieser angebliche "5k" Monitor.
 
  • Gefällt mir
Reaktionen: iron_monkey und Aeropony
benneque schrieb:
Und wie du richtig zitiert hast: "um 4000", nicht "über 4000".

Wobei da zu debatieren wäre, ob 3840 Pixel wirklich noch "um 4000" wäre. Die klassische 4k Definition ausm Kino sieht übrigens mindests 4096 Pixel vor, siehe denselben Wikipedia Artikel

C1996 schrieb:
Echtes 5K wären 5.120 x 2.880 (14,8 mio) . Also doppel so viele Pixel wie dieser angebliche "5k" Monitor.

Auch hier: Das hat nix mit der Anzahl der Pixel zu tun, sondern bezieht sich ausschließlich auf die horizontale Auflösung. Also ja, es ist 5k. Wie kommt man überhaupt auf die Idee 4k hätte etwas mit der Pixelmenge zu tun?
 
@Qonqueror Ich besitze einen Samsung UE55NU8009 mit 120Hz Panel und FreeSync per HDMI. Bei dem Bildschirm ist mir noch kein Flackern aufgefallen, allerdings nagele ich die fps auch auf 118-ε fest, komme also nie auf unter 100 fps.
 
@Rage Bleibt er auch Flackerfrei wenn man sich der unteren FreeSync Range nähert? Kann man mit der FreeSync oder der G-Sync Demo Testen.

Leider kommen Samsungs TVs erstmal noch nicht mit HDMI 2.1, womit sie noch keine Alternative zu Nvidias überteuerten 65 Zoll Monitoren aka BFGD darstellen. Bin da Mal auf die 2019er LG OLED gespannt und wie weit die Sync Range Von VRR im 4k 120Hz Betrieb ist. Die Latenz sollte durch OLED und dem Low Latency Mode mit HDMI 2.1 auch kein störender Faktor mehr sein.
 
MaverickM schrieb:
Wobei da zu debatieren wäre, ob 3840 Pixel wirklich noch "um 4000" wäre. Die klassische 4k Definition ausm Kino sieht übrigens mindests 4096 Pixel vor, siehe denselben Wikipedia Artikel



Auch hier: Das hat nix mit der Anzahl der Pixel zu tun, sondern bezieht sich ausschließlich auf die horizontale Auflösung. Also ja, es ist 5k. Wie kommt man überhaupt auf die Idee 4k hätte etwas mit der Pixelmenge zu tun?

Schau dir an hinter welcher Auflösungen 5K und 8K stehen .......hat aber mit etsprechend erhöhter vertikalen Pixelanzahl zu tun
https://geizhals.de/?cat=monlcd19wide&xf=14591_38401600
 
  • Gefällt mir
Reaktionen: C1996
@Qonqueror Ich probiers bald mal aus. Dass der Fernseher kein HDMI 2.1 hat macht mich aber auch ein kleines bisschen traurig, weil das Panel ja eigentlich zu UHD@120Hz in der Lage wäre.
 
lubi7 schrieb:
Diese Werte bei einem 38"er bei 24:10 für 1000€, mit vernünftiger FreeSync umsetzung auch mit Nvidia GraKas und gut ist.
Diese ultra breite und schmale Monis sind zu extrem schlitzi 😉

Warum nicht 21:9?
24:10 hat doch kein Monitor (oder doch?) und entspricht umgerechnet auf die gängige "9" exakt 21,6:9 oder richtig gekürzt halt dann 12:5. Ist ja immer das gleiche Verhältnis.

Aber ein 21:9 Monitor wäre doch ziemlich exakt das, was du willst. Zumal ein 21:9 Monitor bei 38 Zoll sogar ein wenig höher wäre, als ein 24:10 Monitor. Wäre doch ideal, wenn du diese extremen Schlitzformate eh nicht magst.
 
lubi7 schrieb:
Schau dir an hinter welcher Auflösungen 5K und 8K stehen .......hat aber mit etsprechend erhöhter vertikalen Pixelanzahl zu tun
https://geizhals.de/?cat=monlcd19wide&xf=14591_38401600
Ich denke am Wikipedia Eintrag gibt es nichts zu rütteln, ganz egal welchen Unsinn da so manche Marketing Abteilung fabriziert.
Ultra HD ist keine echte 4k Auflösung, auch wenn die Hersteller mit dem Begriff hausieren gehen.
 
Zurück
Oben