News LG UltraGear-Monitore: UWQHD mit 144 Hz & FreeSync 2 oder 120 Hz & G-Sync

Wer zwichen 10Bit (auch 8Bit+FRC) und "nur" 8Bit Farbtiefe, beides mit 4:4:4 Farbunterabtastung, keinen Unterschied sieht, der sieht _imho_ auch keinen Unterschied zwichen "hoch" und "ultra" in Spielen (kommt natürlich auch auf das Spiel an!). Wer aber eh mit einer Farbunterabtastung 4:2:2 oder noch schlimmer "spielt" dem ist Qualität doch eh egal.
 
  • Gefällt mir
Reaktionen: psYcho-edgE
reddragon1212 schrieb:
Ob wir jemals eine Karte kaufen (<1000€) können die 4K mit 120fps schafft bei aktuellen Titeln?
120 mit maximalen Details? Das dauert noch geschätzte 4-6 Jahre....4k mit stabilen 60fps für um die 400-600€ fänd ich schon toll. Aber dann sinds halt aktuell nur so 30-50fps bei 4k, was solls ^^ (mit ner 1070)
 
@janeeisklar

Ich sage damit ja aus dass es auf mehrere Faktoren ankommt wie ein Bild wirkt. Ich habe 2 Tage jetzt einen LG 38WK95 in Ultrawide zum Testen da und allein die geringere Pixeldichte auf die Größe und Abstand sorgt schon dafür dass selbst bei 10bit die Farben nicht so schön wirken wie auf einen guten UHD Monitor. Schon die Auflösung kann Einfluss auf die Darstellung haben. Hier haben wir gerade mal UWQHD Geräte.

Ausgangsmaterial bei vielen Games ist doch eh nur 8bit soweit ich weiß. Spätestens bei den UHD/144Hz Monitoren bist wiederum mit der Bandbreite der Schnittstellen eh limitiert.

Wer mehr will muss auch wie hier beim G-Sync Modell auf Geräte in der Zukunft warten.
 
der Unzensierte schrieb:
Was mir immer wieder "stinkt" - keine Angaben zur F-Sync/G-Sync-Range. Das gehört eigentlich aufs Datenblatt, das könnten sich die Hersteller endlich mal in goldenen Lettern in hinterindisches Elfenbein eingravieren lassen.
Ich weiß nicht, so würde es wieder nur zum Quartett spielen mißbraucht..
A:"Mein Monitor hat eine Range von 40 bis 72"
B:" Meiner 30 bis 75, gewonnen"
:rolleyes:

Entscheidend ist der überhaupt vorhandene Spielraum!

Kleine Anekdote dazu:
Als ich ein LowBudget System mit RX560 und billigstem 24" FS Monitor für einen jungen Jugendlichen baute, kam der ältere Bruder und lästerte direkt über die vermeindlich schwache Grafikkarte/Hardware. Beim direktem Vergleich mit identischen Spieleinstellungen lieferte das Gepsann RX560+FS ein mehr als deultich ruhigeres Bild ab als die GTX1060 +noSync Monitor des Bruders, obwohl er fast die doppelten, maximalen Fps vorweisen konnte.
"Dann kauf ich mir auch so einen Monitor.." und verschwand schweigend, als ich ihm den Preis für das billigste GSync Modell zeigte....:p

Der Unterschied von F/G-Sync zu kein Sync ist gigantisch
Der Unterschied von kleiner Sync Range zu größerer Range marginal

Natürlich wähle ich bei ähnlichem Preis und Features auch den Monitor mit der großeren Sync-Range, aber das ist nur die Kirsche auf der Torte..;)


ChrisMK72 schrieb:
Mal schaun ob's in 1-3 Jahren den "perfekten" gaming Monitor gibt.
DIESEN Wunsch lese ich schon seit es Monitore gibt :D


@Redaktion
Ich wünsche mir mal einen Test wo die Unterschiede von Adaptive Sync zu nonSync mittels Highsspeedkamera sichbar gemacht werden.
Lange FPS Balken sind so 2010 und sagen eigentlich kaum noch etwas über die Qualität/Bildstabilität beim Daddeln aus!
 
  • Gefällt mir
Reaktionen: GERmaximus
Hollomen schrieb:
nur Displayport 1.2 und kein 10Bit Panel und nur 100/120Hz und kostet dafür über 200€ mehr.

G-Sync blockt das halt kann nur mit 8Bit umgehen und dank DP 1.2 auch nur mit max. 120Hz.
 
reddragon1212 schrieb:
Ob wir jemals eine Karte kaufen (<1000€) können die 4K mit 120fps schafft bei aktuellen Titeln?

Vielleicht mit Navi in Doom nächstes Jahr als best Case aber durch die Formulierung "aktuellen Titeln" dürfte das noch 10 Jahre + dauern, befürchte ich.
 
Rodger schrieb:
1000:1 Kontrast und das trotz Nano und was nicht alles...sagt alles über den Müll von LG aus.

Und wer sagt das Nano IPS daran was ändern sollte?

LG ihre anderen 144Hz UW IPSler kommen sumarum auf 1200-1400:1 was schon sehr gut ist für ein IPS.

IPS ist für hohen Kontrast nicht geschaffen zumal Kontrast allein kein gutes Bild macht.

Da von *Müll* zu reden zeigt nur die unwissenheit.
Ergänzung ()

SavageSkull schrieb:
Ich dachte FreeSync ist mittlerweile G-Sync ebenbürtig? Die Range fängt erst bei 72Hz an? Ist das ein schlechter Scherz?
Bei LFC was pflicht ist,ist das wumpe wenn die bei 72 anfängt.
 
borizb schrieb:
Ich denke grad an Triple A Spiele und welche AMD Karte die in 3.440 × 1.440 bei 144Hz darstellen soll.
Es gibt eine große Bandbreite an älteren Spielen die immer noch sehr viel Spaß machen und dennoch easy mit >100fps laufen. Auch ein olles CS macht mit 120 fps und Freesync mehr Spaß als mit 60 und VSYNC.
 
janeeisklar schrieb:
Wer aber eh mit einer Farbunterabtastung 4:2:2 oder noch schlimmer "spielt" dem ist Qualität doch eh egal.

Das ist erst einmal absolut grober Unfug und hängt vom Ausgangsmaterial ab. Ob Du da selbst bei passendem Ausgangsmaterial überhaupt einen Unterschied siehst, hängt zudem stark vom Monitor/TV ab.
 
MaverickM schrieb:
Das ist erst einmal absolut grober Unfug und hängt vom Ausgangsmaterial ab. Ob Du da selbst bei passendem Ausgangsmaterial überhaupt einen Unterschied siehst, hängt zudem stark vom Monitor/TV ab.
Und das ist erst einmal bla bla, denn natürlich hängt die letztliche Qualität vom Ausgangsmaterial ab. Also was soll dieses pseudo bla bla?
Wenn du kein Unterschied zwichen 10Bit 4:4:4 zu 10Bit 4:2:2 (oder schlimmer) siehst, kauf dir ne Brille.
Es ist eigentlich schon pervers die Farbtiefe auf 10Bit und dann die Farbunterabtastung auf 4:2:2 (oder schlimmer) zu "versaubeuteln".


@KuroSamurai117
EDIT: Sorry, hatte dein Post übersehen :O
Ab DirectX 9 wurde der Framebuffer von 8Bit auf 10Bit pro Farbkanal umgestellt.
 
Zuletzt bearbeitet:
Maaareee schrieb:
Wie weit sitzen hier denn alle von ihren Monitoren entfernt? Ich kann mir mehr als 24" kaum vorstellen auf meinem Schreibtisch - absolutes Maximum bei 27". Es sei denn ich setze mich und Monitor jeweils an's gegenüberliegende Längsende.

Grundsätzlich seh ich das genauso! Aber wenn 27"noch geht ist doch alles okay. Ich hatte für ne kurze Zeit n 32"er hier stehen, der war einfach viel zu groß... Das gilt dann aber trotzdem nicht für die 34" oder 49" ultra breiten Displays, denn das sind ja einfach nur breit gezogene 27"er.

Für mich und meinen Schreibtisch sind auch 27" das Maximum, aber ein Bildschirm allein reicht halt nicht, deshalb steht bei mir jetzt der 49"er 32:9 von Samsung. Entspricht exakt 2 Displays in 27".

Wenn du also gerne ins ultrawide Lager wechseln möchtest, bist du bei der Größer der beiden 34"er hier genau richtig.
 
  • Gefällt mir
Reaktionen: Maaareee und ZeusTheGod
HolzStreich schrieb:
@blood: Denkst du die Freesync Variante könnte was taugen? Irgendwas gehört über das Panel?
Ich hoffe das er was taugt.
Leider noch nicht viel gesehen von oder gehört.
Man weis ja das LG es schwer hat mit den Schaltzeiten das ist eher meine größte sorge das se das wieder verbocken.
Eingestanden haben se es ja schon das se da Prob. haben und da stark drann Arbeiten aber ob das schon für den 34er zutrifft weis man erst nach Tests.

Man darf also etwas gespannt sein ich werde zwar nicht sofort zuschlagen da mir 1100/1200€ zu teuer sind aber wenner dann mal bei 900 oder 1000€ liegt schlag ich auch zu dürfte ja nicht so lange dauern.
 
lira schrieb:
Warum müssen die Monitore denn immer so riesig sein? Also gefühlt wird nichts mehr mit 24-25" vorgestellt was irgendwie brauchbar wäre.
Bei nem normalen Tisch mit 60cm Tiefe fühlt man sich von 27" schon erschlagen.
Ein 34 Zoll Ultrawide Bildschirm ist von der Höhe auch nur so groß wie ein 27er, nur eben Breiter.
 
lira schrieb:
Bei nem normalen Tisch mit 60cm Tiefe fühlt man sich von 27" schon erschlagen.
Einfach zum Baumarkt gehen und eine größere Platte kaufen, das werde ich jedenfalls tun, wenn mein 34" Winzling ankommt :)

Hmm die Freesync Variante hat bessere Ausstattung und dennoch ist die G-Sync Variante 200€ teurer... Warum?
 
lira schrieb:
Bei nem normalen Tisch mit 60cm Tiefe fühlt man sich von 27" schon erschlagen.

60cm ist schon ganz schön kurz. Die meisten Schreibtische, die ich kenne, sind 80cm tief.

KuroSamurai117 schrieb:
Ausgangsmaterial bei vielen Games ist doch eh nur 8bit soweit ich weiß.

Deshalb gibt es ja auch Spiele mit HDR-Unterstützung, einer GPU ist es im Endeffekt Wumpe ob sie nun in 8, 10 oder 12bit pro Farbkanal rechnet. Braucht halt etwas mehr Leistung weil die Datenmenge größer ist. Aber die Geometrie ist nach wie vor eh der größte Leistungsfresser, deshalb fällt es nicht so schwer ins Gewicht.
 
Rulrul schrieb:
Ich finde es zwar schön für die jenigen die eine ATI Karte ihr eigen nennen...

Ich finde diejenigen, die noch eine ATI-Karte haben, sollten dringlichst aufrüsten :)
 
  • Gefällt mir
Reaktionen: MeisterOek und psYcho-edgE
-Spectre- schrieb:
Hmm die Freesync Variante hat bessere Ausstattung und dennoch ist die G-Sync Variante 200€ teurer... Warum?

Na NV testet doch grade überall aus, wie weit sich die Kunden ausnehmen lassen - warum sollten andere Hersteller sich das nicht auch zunutze machen? :freak:
 
-Spectre- schrieb:
Ich finde diejenigen, die noch eine ATI-Karte haben, sollten dringlichst aufrüsten :)
Hahaha
Ich weiß ist technich falsch aber ich hasse es in rotes Team grünes Team zu teilen und die Namen wechseln alle Nase lang.
Außerdem war meine aller erste Graka eine ATI 9250. Von da an hießen alle Karten aus dem Hause für mich egal ob Radeon rx Vega sonstewas einfach nur ATI + 2-3 Buchstaben und Nummer

Ich glaube es wurde dennoch klar was ich gemeint hatte ursprünglich ;)
 
janeeisklar schrieb:
Also was soll dieses pseudo bla bla?
Wenn du kein Unterschied zwichen 10Bit 4:4:4 zu 10Bit 4:2:2 (oder schlimmer) siehst, kauf dir ne Brille.

OK, ich versuchs für Dich anders zu formulieren: Ja, der Unterschied ist natürlich sichtbar. Bei ausgewähltem Material. Aber er ist bei weitem nicht so dramatisch wie Du tust, und vor allem: Häufig schlichtweg unnötig, weil das Quellmaterial in den meisten Fällen es gar nicht notwendig macht, eine höhere Farbabtastung zu verwenden.

Insofern mein "Vorwurf" an dich: Rosarote Brille abnehmen und nicht nur einen Unterschied einbilden, wo meist keiner ist.
 
Zurück
Oben