News LG UltraGear-Monitore: UWQHD mit 144 Hz & FreeSync 2 oder 120 Hz & G-Sync

@SavageSkull Das magst Du so sehen, mit <120fps mag ich eher nicht spielen. Mir ist das absolut egal, dass die Range erst bei 72fps anfängt, zumal es ja LFC für darunter gibt (machen das G-Sync-Bildschirme nicht auch bis in etwa den Bereich?).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: psYcho-edgE
Sobald FreeSync 2 dran steht braucht man sich über die minimale Frequenz eigentlich keine Gedanken mehr machen, schließlich ist zwingend LFC mit an Bord.

Supermax2004 schrieb:
400 Nits, damit kann man HDR auch grob vergessen. Tolle Teile.....

Naja, HDR ist ja kein an/aus Feature. Ich finde HDR mit 600 Nits schon ziemlich beeindruckend, auch wenn 1000 Nits sicher nochmal einen oben drauf setzen. 400 Nits sind zwar nicht wirklich viel, aber immerhin besser als garkein HDR. :)
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Ich weiß nicht was ihr mit HDR wollt, wenn der Monitor nur 1000:1 Kontrast kann....*kopfschüttel*
 
  • Gefällt mir
Reaktionen: Averomoe und Nilson
Rodger schrieb:
Einfach irgendwas erzählen....4K steht für die stark gerundete 4096 Pixel horizontable Auflösung von 4K.
4096 X 2160 Pixel. Wenn du mir jetzt mit 3840 X 2160 kommst...dann maul die maketing Maschinerien an...
Ich glaube wir kommen nicht mehr zusammen. Bei 1080 x 4000 von 4K Auflösung sprichst was ist den 2160 x 4000 auch 4K? 4K steht bei mir als Synonym für UHD. Macht aber nix ich weiß was du meinst. Das ist gerade der sweet Spot der Top Karten. Mein 34 Zöller hat in etwa auch die gleiche gesamt Pixel-Anzahl.
 
Ich weis nicht was du da faselst. Lies dir nochmal durch, was ich geschrieben habe.

Weitere Hilfe...
4096x2160 = 8.847.360 Pixel = ca. 8,85 Megapixel
Ich habe schwer den Verdacht, das du Auflösung und Megapixel durcheinander schmeißt.

Und nein, ein 32:9 Monitor, der 3880 (oder was weis ich) x1080 Pixel hat kann KEIN UHD, denn er kann nun mal nur 1080 Pixel in der Höhe und das ist nunmal gerade mal Full HD. Selbst mein 21:9er mit 3440x1440 kann kein UHD. 3440 x 1440 = 4.953.600 Pixel
 
Rage schrieb:
@SavageSkull Das magst Du so sehen, mit <120fps mag ich eher nicht spielen.
Ich schaffe bei dem popeligen World of Tanks keine stabilen 120fps mit einer GTX1080 bei WQHD. Ich weiß ja nicht was du spielst, aber wenn ich stabil 120fps und mehr hätte, würde ich nur ULMB einstellen und brauch überhaupt kein variables Sync mehr.
Mein 144Hz Monitor läuft übrigens nur auf 120Hz. Sehe da bei über 100Hz eh keinen Unterschied mehr.
 
  • Gefällt mir
Reaktionen: GERmaximus
@SavageSkull Ich spiele hauptsächlich Battlefield 1 mit 120fps+ und Rocket League. Im Treiber sind ein Framelimiter auf 143fps und FreeSync aktiv. Andere Spiele, die ich gelegentlich spiele, stelle ich auch entsprechend ein; so zum Beispiel Doom.

Da ich eine AMD-Karte habe, kann ich ULMB nicht benutzen.

Wenn ich an einem 60Hz-Bildschirm spielen muss, stelle ich in der Regel einen Limiter auf 120fps und schalte EnhancedSync an.

Aber das ist nur persönliche Präferenz, den LG mit FreeSync finde ich deswegen extrem interessant, wenn auch etwas teuer.
 
AYAlf schrieb:
Kann mir nicht vorstellen jemals wieder beim Zocken auf 21:9 zu verzichten.
Hoffe eher sogar noch auf 32:9 https://www.amazon.de/Samsung-C49HG...8&qid=1535797597&sr=8-1&keywords=samsung+32+9

Leider nur FreeSync und kein G-Sync in Sicht. Mehr als 1080p würde meine GTX 1080Ti eh nicht mitmachen
3840 x 1080p = 4.147.200 entspricht 4k.

@Rodger
Ich beziehe mich die ganze Zeit auf diese Aussage. Und will sagen das AYAlfs Aussage "entspricht 4K" falsch oder zumindedt irreführend ist. Da 4k als Synonym für UHD steht. Oder was verstehst du darunter wenn jemad von 4K Gameing spricht!?

Ist langsam ein running Gag.
 
Hollomen schrieb:
Und nur 1x HDMI und nur Displayport 1.2 und kein 10Bit Panel und nur 100/120Hz und kostet dafür über 200€ mehr. Da/für geht einem dann ein Licht auf, zumindest am Monitor. Danke NV für diese herausragende Innovation.
Schade nur, dass nv aktuell die weitaus besseren Karten liefert. Obwohl ich mit der Vega64 bei der gleichen Auflösung schon gut zocken konnte. Oft im 100Hz Bereich bei aktuellen Spielen. Vielleicht hole ich mir doch wieder eine:) Der 34"Samsung Monitor ging wegen Mängeln wieder zurück.
Ergänzung ()


Aber nicht 4k - 4k ist nähmlich eigentlich 8K (2K×4K).

so so....

Der Kerl auf den du dich angeblich beziehst...der hats allerdings mal auch gar nicht verstanden....aber mir egal.
 
Wie weit sitzen hier denn alle von ihren Monitoren entfernt? Ich kann mir mehr als 24" kaum vorstellen auf meinem Schreibtisch - absolutes Maximum bei 27". Es sei denn ich setze mich und Monitor jeweils an's gegenüberliegende Längsende.

Deshalb wünsche ich mir solche Kaliber in den erwähnten Größen.
 
der Unzensierte schrieb:
Was mir immer wieder "stinkt" - keine Angaben zur F-Sync/G-Sync-Range. Das gehört eigentlich aufs Datenblatt, das könnten sich die Hersteller endlich mal in goldenen Lettern in hinterindisches Elfenbein eingravieren lassen.

Bei G-Sync ist eigentlich der standard das es von 30hz - maximale hz geht. Bei manchen 144+ beschränkt auf 100 oder 120hz. bei FS ist da die Range minimum schon weiter auseinander und man findet oft nicht mal auf der Herstellerseite eine Angabe, schon traurig.

Schön zu sehen das FS2 nun G-Sync gefährlich wird. Ich meine 100€ bis jetzt wäre mir ein G-Sync Modul evtl noch wert gewesen, aber die News in letzter Zeit von hier 250€ bis 500€ Aufpreis für G-Sync werden langsam lächerlich.

Zumal die AMD Karten beim Preis langsam wirklich sehr interessant werden.
RX 570 Sapphire Pulse 8Gb 199€ (kurzzeitiges Angebot )
RX V56 Sapphire Pulse 450€
RX V64 Sapphire Nitro+ 525€
 
Zuletzt bearbeitet:
Will Nvidia seine Kunden verarschen? Da kaufen sich Kunden zb eine 1080Ti und einen teuren gsync Monitor um dann 2018! mit 8Bit Farbtiefe zu daddeln? Was ist mit dem gsync "Premium Gaming" oder so geworden?
 
janeeisklar schrieb:
mit 8Bit Farbtiefe zu daddeln?

Zockst auch beim Freesync-Modell mit 8bit Farbtiefe. Es wird nur durch FRC künstlich hochgejagt. Also echtes 10bit Panel bekommst bei dem LG so oder so nicht. Beim Zocken fällt der Unterschied eigentlich nicht wirklich ins Gewicht. Wäre wenn man Fotos oder Grafiken bearbeitet vielleicht was anderes.
 
Ach bitte, selbst 8Bit+ FRC (was für die GPU nur als 10Bit zu erkennen ist) macht einen unterschied.
Was nutzt alles auf "ultra" wenn ich dann unter gsync letztlich nur 8Bit wählen kann.
 
Also auch wenn ich mit meinem 32GK850F absolut zufrieden bin und der 34GK950F n nettes Datenblatt hat ist der Preis schon SEHR stolz...für meinen habe ich knapp unter 600 gezahlt und der neue soll das doppelte kosten?!

Schön zu sehen ist aber der Schlag in NVs hässliches, propritäres Gesicht :D
 
@janeeisklar

Der Unterschied ist kaum vorhanden und wenn dann hängt es noch von anderen Faktoren wie Kontrast oder Farbtreue des jeweiligen Panel ab. Meinen OLED TV kann ich über HDMI auch nur mit 8bit ansteuern und trotzdem sieht das Bild besser aus als über 8bit+FRC von meinen LG 32UH89.

Zwischen meinen 8bit 144Hz G-Sync Monitor und dem LG fällt es nur im Windows Betrieb wirklich groß auf.
Was ist aber sehen kann ist dass 120/144Hz Panel bei der hohen Schaltung eh etwas an Farbtreue verlieren.
Da kommst so oder so nicht an ein reines 10bit Panel mit 60Hz ran. Die sind aber dann oft als Grafikermonitor zur träge.
 
Zurück
Oben