News Odyssey OLED G8: Samsungs erster OLED-Monitor für Spieler ist smart

Beim einem Monitor sollte es egal sein, es gibt da keinen realen Grund ständig die Kabel abzuziehen, deshlab muss da auch nichts defekt gehen oder repariert werden müssen.
Da reißt auch keine Buchse ab wenn das Kabel nicht gerade strammgezogen dranhängt (dass wäre dann der eigenen Dummheit geschuldet)

Dein Argument hinkt nicht nur, es ist unverblümt ausgedrückt reiner Schwachsinn bezogen auf einen MONITOR
 
  • Gefällt mir
Reaktionen: Coeckchen
Na überteib mal nicht,die Panels halten schon was aus.
Klar wenn ich was davor werfe,oder blöd mit nem gegenstand davor komme,warum auch immer man das machen sollte,kanns halt kaputt gehen.

onetwoxx schrieb:
deshlab muss da auch nichts defekt gehen oder repariert werden müssen.
Sehe ich auch so,mir ist in 30Jahre noch nie nen Anschlüss kaputt gegangen oder war ausgenudelt..

Noch nichtmal bei meine Phones,wo man ja täglich es Ladekabel dran und wieder abmacht.
Zumindest ist das bei mir so,nutze lange mein Phone da muss ich am Tag schon 1-2x nachladen.

Da sehe bei Monitore mal so garkein Prob.
Er ärgert sich bestimmt weil er teure Lindy kabel gekauft hat und die nicht nutzen kann^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: onetwoxx
W0dan schrieb:
Willst du es nicht verstehen oder ist es wirklich zu komplex? Ich habs dir doch auf der vorherigen Seite schon erklärt. Lies das doch bitte mal.

Quantum Dots sind kein Farbfilter.
Ein Farbfilter filtert aus einem breiteren Farbspektrum eine bestimmte Wellenlänge, die durchkommt und alle anderen werden blockiert. Das schmälert die Lichtausbeute.

Quantum Dots hingegen konvertieren das Licht von einer Wellenlänge auf eine beliebige andere Wellenlänge. Es geht keine/kaum Lichtausbeute verloren.

Das hat nichtmal ansatzweise irgendwas mit einem Filter zu tun.

Und nochmal. Egal ob Quantum Dots oder Farbfilter. Die Farbe die dabei rauskommt ist fest und unveränderlich und nachträglich nicht mehr durch die Quantum Dots oder Farbfilter änderbar. Die sind Elektronisch gar nicht ansteuerbar. Entsprechend gibts auch keine Reaktionszeiten die sich negativ aufs Bild auswirken könnten.
OK, in meiner Vorstellung war es immer so, dass das Backlight nur die Lichtquelle ist und der Filter davor elektronisch angesteuert wird.

Meine Vorstellung rührt daher, dass ich Mal ein Video über einen Selfmade Beamer gesehen habe bei welchem das Backlight eines LCD entfernt und nur die Farbschicht auf einem Overheadprojektor verwendet wurde.

Du sagst ja, dass der Farbfilter oder Quantum Dot nur passiv ist, dann muss ja jedes Subpixel im Backlight angesteuert werden können um Farben etc darzustellen.

Dann ist QD-OLED ebenfalls selbstleuchtend wie OLED von LG und hat somit auch identische Schaltzeiten.
 
  • Gefällt mir
Reaktionen: Mimir
Caramelito schrieb:
Wo ist denn allgemein der Vorteil von zB Gsync Ultimate vs Freesnyc (Gsync compatible)?
Ich sehe irgendwie keinen Unterschied, aber hatte noch nie beide "Varianten" direkt nebeneinander.

LG

Die verschiedenen Abstufungen von G-Sync und Freesync, die teils ja auch HDR-Fähigkeiten voraussetzen etc., mal außer Acht gelassen, ist der wesentliche Vorteil von G-Sync gegenüber einer guten Implementierung von Adaptive Sync im Allgemeinen, wie oben auch schon angedeutet, in meinen Augen primär variables Overdrive.

Nur sehr wenige Monitore ohne G-Sync-Modul bieten dieses Feature, wohingegen ein G-Sync-Modul immer bedeutet, dass es genutzt wird (oder zumindest ist mir noch kein anderer Fall über den Weg gelaufen). Das heißt im Wesentlichen, dass über die gesamte Frequenzbreite derselbe Overdrive-Modus genutzt werden kann, ohne dass Overshoot-Artefakte überhand nehmen, eben weil die Intensität des Overdrives an die Bildwiederholfrequenz angepasst wird - für LCDs ein großer Vorteil (bei OLEDs hingegen vollständig obsolet).

Vermutlich könnte man jetzt auch noch andere Punkte anführen, für mich war das aber immer der primäre Vorteil des Moduls. Ansonsten gibt es über Preis, Anschlusslimitierungen und Lüfter (Ultimate-Version) ja auch genügend Nachteile.

G3cko schrieb:
Dann ist QD-OLED ebenfalls selbstleuchtend wie OLED von LG und hat somit auch identische Schaltzeiten.

Jedes OLED-Panel ist selbstleuchtend. Eigentlich ist das sogar ihre primäre Eigenschaft.
 
  • Gefällt mir
Reaktionen: herculesgott, N0Thing und Caramelito
heroesgaming schrieb:
Ein dediziertes G-Sync-Modul hat bei einem OLED-Display ohnehin wenig Mehrwert, gerade weil die Möglichkeit zum variablen Overdrive komplett ad absurdum geführt wird. Einfaches Adaptive Sync dürfte da kein Stück schlechter abschneiden, dafür verzichtet man auf die Nachteile.
Interessant wie du sagst es hätte keinen Mehrwert ohne Belege und Quellen zu nennen. Durchaus ist ein G-Sync Modul berechtigt und dsmit hatte ich deutlich weniger Probleme. Da du aber Gsync und Freesync mit adaptive Sync vergleichst brauch ich mich da aucu nicht weiter mit dir unterhalten...
Ergänzung ()

G3cko schrieb:
Dann ist QD-OLED ebenfalls selbstleuchtend wie OLED von LG und hat somit auch identische Schaltzeiten.
Selbstverständlich sind QD-OLED selbetleuchtend. Wer jemals etwas anderes behauptet hat hatte ohnehin keine Ahnung.
 
DRVNabsolute schrieb:
Interessant wie du sagst es hätte keinen Mehrwert ohne Belege und Quellen zu nennen.
Das ist meine Meinung. Du darfst mich gerne vom Gegenteil überzeugen :)
DRVNabsolute schrieb:
Durchaus ist ein G-Sync Modul berechtigt und dsmit hatte ich deutlich weniger Probleme.
Deine Erfahrungen sind nicht repräsentativ. Froschperspektive und so weiter.

Was man sagen muss: Ein G-Sync-Modul garantiert, dass es keine Fehler wie Flackern bei Schwankungen der Frequenz in den LFC-Bereich gibt, wie gerade manche VA-Monitore es aufweisen. Andererseits leistet eine G-Sync Compatible-Zertifizierung relativ zuverlässig dasselbe. Bedeutet: Das Modul hat auch diesbezüglich keinen echten Mehrwert. Aber wie gesagt, das darf man auch gern anders sehen.

DRVNabsolute schrieb:
Da du aber Gsync und Freesync mit adaptive Sync vergleichst ...
Freesync ist AMDs Marketingbezeichnung für durch Radeon-Grafikkarten und deren Treiber genutztes Adaptive Sync, G-Sync-Compatible ist Nvidias. Insofern drängt sich der Vergleich geradezu auf.
DRVNabsolute schrieb:
brauch ich mich da aucu nicht weiter mit dir unterhalten...
Wir hatten uns doch noch gar nicht unterhalten ;)
 
@DRVNabsolute

Gsync Comptible und Gsync Modul sind letzten Endes das gleiche.

Bei Monitoren mit Gsync Modul hast du aber immer 1:1 die gleiche Implementierung und Verhalten. Dadurch ist ein fehlerfreier Betrieb gewährleistet. Sieh es als "Nvidia Qualitätsgarantie"

Bei Gsync Compatible oder Freesync kommt es drauf an, ob die Hersteller das ganze sauber umgesetzt haben oder nicht.

Hier mal die mir bekannten Aspekte:

Overdrive:
Monitore mit Gsync Modul können variablen Overdrive. Dadurch ist der Overdrive über den gesamten Frequenzbereich gleich stark. Ohne Variablen overdrive muss man bei manchen Monitoren für z.B. 60 Hz ein anderes Overdrive Setting wählen, als z.B. für 144 Hz. Heißt, man müsste ja nach Spiel und erreichter Framerate den Overdrive anpassen oder mit einem schlechteren Ergebnis leben. Viele Monitore decken aber mittlerweile mit einem Setting einen sehr großen Bereich ab oder haben sogar tatsächlich ein variables overdrive. Hier sollte man bei LCDs genau auf die Testergebnise achten. Bei OLEDs ist Overdrive wie schon gesagt wurde nicht nötig bzw. vorhanden, da andere Technologie.


LFC (Low Framerate Compensation):
Nvidia gibt an, dass die Sync Range bei Gsync Monitoren von 1 Hz bis "Max" abdeckt, während bei Gsync Compatible oder Freesync Monitoren meist erst ab 40 oder 45 Hz die Sync Range beginnt.
Tatsächlich aber ist es so, dass beim Gsync Monitor das Gsync Modul das LFC übernimmt. Bei 20 Hz verdoppelt das Gsync Modul also automatisch auf 40 Hz, um innerhalb der Sync Range des Panels zu bleiben.
Bei Gsync Compatible bzw. Freesync muss das der Grafiktreiber machen.

Praktisch macht es absolut keinen Unterschied, ob der Monitor oder der Treiber das macht. Fürs Datenblatt des Monitors macht es aber natürlich aus rein technischer Sicht schon Sinn, hier unterschiedliche Angaben zu machen, da du dem Gsync Monitor halt ein 1 Hz Signal geben könntest und er würde es selber korrekt verarbeiten und auf 40 Hz mappen, wohingegen der Gsync Compatible Monitor das nicht könnte und eben der Treiber auf 40 Hz Mappen müsste.

HDR:
Nvidia wirbt bei Gsync Ultimate damit, dass diese Displays HDR kompatibel sind, was impliziert, dass das bei Gsync Compatible wohl nicht der Fall ist.

Tatsache ist aber, dass Gsync Compatible Displays im Gsync Betrieb genauso mit HDR funktionieren. Praktisch hat das eine mit dem anderen überhaupt nichts miteinander zu tun bzw. hängt es eben vom Monitor ab, was er kann.
Letztendlich ist es nur ein Marketing Claim von Nvidia, weil das alte Gsync Modul noch nicht HDR unterstützt hat. (was wiederum nichts mit HDR vs Gsync zu tun hat, sondern der Tatsache geschuldet ist, dass das Gsync Modul den kompletten Display Scaler bzw. Controller ersetzt und der natürlich alles unterstützen muss, was das Display verarbeiten soll)



Weitere Punkte fallen mir dazu nicht ein bzw. wüsste ich nicht, dass sonst noch was bekannt ist.
Flimmern bei gewissen Frequenzen kann auch mit Gsync Modul auftreten und hängt einfach vom Panel bzw. dem Modell ab (Reviews lesen!) und nicht vom Gsync Modul, ansonsten kannst du mit nem guten Gsync Compatible oder Freesync Display im zweifel sogar ne deutlich bessere Erfahrung haben, als mit nem Display mit Gsync Modul oder halt auch ne schlechtere. Das Mögliche Featureset ist jedenfalls identisch und Gsync Compatible ist definitiv kein "Kompromiss" oder ne low End Einsteiger Variante von Gsync, so wie es oft gerne mal dargestellt wird. Mit Gsync Compatible ist alles möglich, was Gsync Ultimate kann - wenn es das Display kann. Für Freesync gilt das gleiche.
 
  • Gefällt mir
Reaktionen: herculesgott, ASCORBIN, Player49 und 5 andere
@W0dan
Danke für die Zusammenfassung.

Wie ist das mit "Flickering". Höre immer, bzw. hatte auch Monitore, die in gewissen Spielen/Sequenzen bei aktiviertem Freesync eben geflackert haben. Beim aktuellen Monitor habe ich das zB nicht wahrgenommen (Gsync compatible / Freesync mit ner RTX).
 
Ich denke derzeit drüber nach, mir als Desktop-Monitor einen LG-OLED42-Fernseher zu kaufen, falls die im Herbst (Black Friday, usw.) mal im Angebot sind; 120 Hz und GSync-compatible/Freesync reicht mir.

Und wenn mich die Bildhöhe stört, stelle ich einfach eine Ultrawide-Auflösung ein und lasse einen Teil der Bildfäche ungenutzt. Bei 3840 x 1600 (24:10) hätte ich dann immer noch knapp 40 Zoll Diagonale und kaum mehr Bildhöhe als mit meinem bisherigen 27-Zoller. Pixeldichte bliebe fast unverändert, mit 100 - 110 ppi komme ich beim Monitor sehr gut zurecht:

http://www.displaywars.com/42-inch-16x9-vs-39,7-inch-d{24x10}

http://www.displaywars.com/27-inch-16x9-vs-39,7-inch-d{24x10}

ppi.png
 
  • Gefällt mir
Reaktionen: Siegfriedfried
@Caramelito

Habe mich ehrlich gesagt zu wenig mit dem Flickering beschäftigt, um das genau beurteilen zu können, vermute aber, dass es mit dem LFC zusammenhängt.

Also wenn das Panel bei 40 FPS noch mit 40 Hz betrieben wird, bei 39 FPS dann aber mit 78 Hz betrieben wird.
Das verkraftet wohl nicht jedes Panel komplett ohne sichtbare Artefakte in Form von Flimmern, gerade wenn die Framerate um diesen Bereich schwankt.

Zumindest würde das erklären, warum es auch mit Displays mit Gsync Modul auftritt und - soweit ich weiß - nur bei niedrigen Frameraten.

Was genau aber zu diesem Flimmereffekt führt, also was auf Panel ebene passiert und warum es nur bei manchen Monitoren auftritt, weiß ich auch nicht.
 
  • Gefällt mir
Reaktionen: Caramelito
Ein Unterschied ist allerdings das Fehlen des G-Sync-Moduls (G-Sync Ultimate) bei dem Samsung-Modell, denn es wird nur mit AMD FreeSync Premium geworben.

Finde ich gut, dass Samsung sich so klar gegen nVidia Nutzer positioniert und offenbar nicht mal G-Sync Kompatibilität bewirbt. Da weiß man als GeForce User dann wenigstens direkt, dass man sich für dieses Display nicht weiter zu interessieren braucht. Lobenswert diese Transparenz und Direktheit.
 
RogueSix schrieb:
Da weiß man als GeForce User dann wenigstens direkt, dass man sich für dieses Display nicht weiter zu interessieren braucht.
Bin auch Nvidia Nutzer und bin sehr froh, dass dort kein Gsync Ultra Modul drin ist, dieses Drecksteil hat einfach zu viele Nachteile:

  • kein HDMI 2.1 möglich
  • Lüfter!!
  • keine FW Updates möglich

Dadurch ist es eine sehr sehr gute Sache, dass hier eben K E I N Gsync Ultra Modul drin ist!
 
  • Gefällt mir
Reaktionen: Robert., w33werner, Pro_Bro und 3 andere
anappleaday schrieb:
Bin auch Nvidia Nutzer und bin sehr froh, dass dort kein Gsync Ultra Modul drin ist, dieses Drecksteil hat einfach zu viele Nachteile:

  • kein HDMI 2.1 möglich
  • Lüfter!!
  • keine FW Updates möglich

Dadurch ist es eine sehr sehr gute Sache, dass hier eben K E I N Gsync Ultra Modul drin ist!

Gerade der Punkt mir den FW Updates macht einen Monitor langsam aber sicher zu Elektroschrott. Wie man sowas überhaupt verkaufen kann ist mir ein Rätsel.
 
anappleaday schrieb:
  • kein HDMI 2.1 möglich
  • Lüfter!!
  • keine FW Updates möglich

Dadurch ist es eine sehr sehr gute Sache, dass hier eben K E I N Gsync Ultra Modul drin ist!
Dachte nur Gsync Ultimate hat den Lüfter?

zB das LG 34gp950 hat auch G-Sync und keinen Lüfter, oder?

Lüfter jeglicher Art an Stellen, die unüblich sind, brauche ich auch nicht und würde ich nicht kaufen (x570 boards mit Lüfter, Monitore mit Lüftern, usw..)
 
RogueSix schrieb:
Finde ich gut, dass Samsung sich so klar gegen nVidia Nutzer positioniert und offenbar nicht mal G-Sync Kompatibilität bewirbt. Da weiß man als GeForce User dann wenigstens direkt, dass man sich für dieses Display nicht weiter zu interessieren braucht. Lobenswert diese Transparenz und Direktheit.
G-Sync Compatible muss von Nvidia zertifiziert werden. Könnte gut und gerne noch passieren. Davon aber mal abgesehen werben meines Wissens alle Samsung-Monitore nur mit Freesync. Das bedeutet heutzutage aber nicht mehr viel - und eingeschnappt braucht man deswegen erst recht nicht sein :)
Caramelito schrieb:
Dachte nur Gsync Ultimate hat den Lüfter?

zB das LG 34gp950 hat auch G-Sync und keinen Lüfter, oder?
Der LG 34GP950 ist G-Sync-Ultimate-zertifiziert. Sollte daher auch einen Lüfter haben. Ob es auffällt, ist aber modellabhängig, ist nicht immer gleich. Natürlich trotzdem ein Verschleißteil mehr.
 
Wer auch immer in der Marketing Abteilung sich die Integration von Smart TV Funktionen ausgedacht hat, hat noch die Serien oder FIlme auf einem 21:9 oder 32:9 Format geschaut.

Wie dämlich ist das Smart TV Funktionen mit diesem Format zu kombinieren? Da kommt ja überhaupt keine Freude auf.
 
Zurück
Oben