Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Sammelthread Stammtisch für Monitore aller Art (keine Kaufberatung)
- Ersteller Banger
- Erstellt am
rambo0185
Lt. Junior Grade
- Registriert
- Dez. 2008
- Beiträge
- 365
Das ist mir auf meinem Monitor tatsächlich schon öfter aufgefallen das ich keienen fließenden farbübergang habe.Blood011 schrieb:Ka woher die Bilder sind,aber für mich sieht das wieder nach absichtlich übertriebene Werbebilder aus^^
So krass ist das niemals,das wäre mir sofort aufgefallen.
Bild ist von hier aber gibt etliche anderen seiten.
https://www.heimkino.de/news/sony-vpl-vw270-vw570-und-vw870-im-4khdr-beamer-test
hier wurde der vorteil von 10 bit aber auch schon erklärt
https://www.computerbase.de/forum/t...e-sync-24-ips-va-panel.1813595/#post-21523224
Blood011
Fleet Admiral
- Registriert
- Feb. 2011
- Beiträge
- 19.127
Schon klar.
Aber es werden immer geschönte Bilder genommen die total an der Realität vorbei sind.
Davon darfste dich nicht blenden lassen.
Merke dir,der Hersteller will seine Neuheit vk und übertreibt es immer..egal um was es sich handelt.
Real sieht das ganze immer anders aus...
Zumal Games ausserhalb HDR eh nur mit 8Bit was anfangen können.
Und das mit dem besseren Kontrast ist auch mehr schein als sein.
Wäre geil wenns so wäre wie es einem vk wird...
Aber es werden immer geschönte Bilder genommen die total an der Realität vorbei sind.
Davon darfste dich nicht blenden lassen.
Merke dir,der Hersteller will seine Neuheit vk und übertreibt es immer..egal um was es sich handelt.
Real sieht das ganze immer anders aus...
Zumal Games ausserhalb HDR eh nur mit 8Bit was anfangen können.
Und das mit dem besseren Kontrast ist auch mehr schein als sein.
Wäre geil wenns so wäre wie es einem vk wird...
Zuletzt bearbeitet:
Also 110 fps beim Streamen und bei dem Upgrade erwartest du 70-90 fps mehr? Aus dem Moment heraus würde ich behaupten, dass das eher nicht der Fall sein wird, vielleicht liege ich da aber auch falsch.rambo0185 schrieb:Mein hungrigstes Spiel aktuell ist warzone wo ich, wenn ich gleichzeitig Streame, so um die 110 FPS habe und selbst da überlege ich, ob ich meinen 5900X gegen einen 5950X tausche um zumindest knapp 180-200 FPS zu schaffen.
Ist relativ, du solltest aber darauf achten, wenn du dir einen 1440p 240hz ips Bildschirm mit DP 1.4 kaufst, was so ziemlich der mainstream ist was Anschlüsse angeht, dass du dann keine 10bit bei 240hz nutzen kannst. Ich glaube mein FI27Q-X den ich hier hatte, hat bei aktivierten 240hz auf 200hz limitiert, wenn ich 10bit Farbtiefe eingestellt habe. Da musst du dann entscheiden, was du willst. Man kann theoretisch auch auf HDMI 2.1 warten, wie das aber dann nachher im realen Szenario funktioniert, weiß ich nicht. Höher Datendurchsatz ist ja aber da, sollte also vielleicht bei voller Bildwiederholrate funktionieren.rambo0185 schrieb:Achtet ihr eigentlich auch auf die Farbtiefe? Also sollten es 10Bit sein? Echt oder 8+2? oder sind 8Bit völlig ausreichend?
Und wie hier schon ein wenig argumentiert wird, ich habe damals bei 10bit und 8bit beim FI27Q-X nicht wirklich einen Unterschied erkannt. Aber der hat ja sowieso nicht so dolle bei der Farbtiefe abgeschnitten, wird also wohl daran gelegen haben.
Marketing lässt halt grüßen, kennen wir ja schon von ach so vielen Features .Blood011 schrieb:Aber es werden immer geschönte Bilder genommen die total an der Realität vorbei sind.
Davon darfste dich nicht blenden lassen.
- Registriert
- Aug. 2010
- Beiträge
- 39.858
Kritischer ist es doch bei diesem LG 38GN950-B oder wie der heißt, wo dann bei 180Hz noch Sachen sind, die noch schlechter als 8 Bit sind, weil selbst dafür der verbaute DP nicht reicht.
https://www.rtings.com/monitor/reviews/lg/38gl950g-b
Naja fast? Der 38GL950G-B mit Nvidia-Modul hat das mit 175Hz.
Ich meine, es gibt aber trotzdem noch einen mit 180Hz. Irgendwo gab es auch Bilder, wo mit Chroma 4:2:2 die Schrift schlecht aussah.
Ergänzung ()
https://www.rtings.com/monitor/reviews/lg/38gl950g-b
Naja fast? Der 38GL950G-B mit Nvidia-Modul hat das mit 175Hz.
Ich meine, es gibt aber trotzdem noch einen mit 180Hz. Irgendwo gab es auch Bilder, wo mit Chroma 4:2:2 die Schrift schlecht aussah.
Zuletzt bearbeitet:
rambo0185
Lt. Junior Grade
- Registriert
- Dez. 2008
- Beiträge
- 365
ja klar, die Bilder sind natürlich übertrieben.Blood011 schrieb:Aber es werden immer geschönte Bilder genommen die total an der Realität vorbei sind.
Davon darfste dich nicht blenden lassen.
Wenn ich nicht streame habe ich um die 180-190 FPS, sobald ich den Stream anmache sinds um die 110 und OBS hat dann eine CPU Auslastung zwischen 13-19%. Wenn ich Grob mit 20% weniger CPU Leistung fürs Spiel durch OBS Rechne sind das von aktuell 12 Kernen ca. 2,5 Kerne weniger. Runden wir auf 3 Kerne für OBS auf und 9 Fürs Spiel. Wenn ich nun auf einen 5950X wechsel hab ich 16 Kerne. Minus 3 Für OBS bleiben 13 Kerne Übrig was mehr sind als ich aktuell ohne Streaming für Warzone habe also sollte ich theoretisch die 180-190 FPS schaffen und durch sogar einen Kern mehr vielleicht sogar noch nen ticken mehr FPS.VenoXj1 schrieb:Also 110 fps beim Streamen und bei dem Upgrade erwartest du 70-90 fps mehr? Aus dem Moment heraus würde ich behaupten, dass das eher nicht der Fall sein wird, vielleicht liege ich da aber auch falsch.
Ist natürlich alles nur theoretisch durchgerechnet
irgend einen Hacken gibts immer :/VenoXj1 schrieb:Ist relativ, du solltest aber darauf achten, wenn du dir einen 1440p 240hz ips Bildschirm mit DP 1.4 kaufst, was so ziemlich der mainstream ist was Anschlüsse angeht, dass du dann keine 10bit bei 240hz nutzen kannst. Ich glaube mein FI27Q-X den ich hier hatte, hat bei aktivierten 240hz auf 200hz limitiert, wenn ich 10bit Farbtiefe eingestellt habe.
Der hat ja auch wieder ne noch größere Auflösung. Da wird's dann mit der schon so knappen Bandbreite (wenn man allein 10 bit Farbtiefe rechnet) noch schwieriger. Daher hoffe ich ja auf einen 240hz HDMI 2.1 WQHD IPS Monitor der ordentliche Ratings in allem fährt. Nichts ultrakrankes, aber doch ordentlich. Da muss ich wohl aber für immer warten und ich hätte gerne jetzt was . Keine Ahnung was sich für mich für Alternative bieten. Der von Asus scheint mir interessant, aber die response time bei 60hz scheint ja echt wieder mal (Asus typisch) kacke zu sein. Eventuell komme ich damit aber klar, man ist ja nicht gezwungen VRR zu nutzen. Da habe ich lieber screen tearing als ein schwammiges Spieleerlebnis.Banger schrieb:Kritischer ist es doch bei diesem LG 38GN950-B oder wie der heißt, wo dann bei 180Hz noch Sachen sind, die noch schlechter als 8 Bit sind, weil selbst dafür der verbaute DP nicht reicht.
@rambo0185 Dann kommt ja noch z.B. der Black Equalizer 2.0 bei FI27Q-X dazu, der nimmt dir dann auch nochmal ein gutes Stück der Bildwiederholrate des Bildschirms. Leider habe ich da die genau Zahl nicht mehr im Kopf, auch weil ich nicht weiß wie das genau nachher mit 10bit Farbtiefe kombiniert funktioniert. Da muss man sich dann schon Gedanken machen. Sind einem diese Features wichtig? Wenn nicht, dann kannst du natürlich deine 240hz nutzen so oft du möchtest. Willst du aber diese Features nutzen, dann musst du eben auf die 240hz verzichten. Aber wie gesagt, bei dem Bildschirm war der Unterschied zu 10bit Farbtiefe für mich so gar nicht sichtbar. Bei einem mit potenter Farbtiefe kann das aber anders aussehen.
Ob man das so rein theoretisch rechnen kann, bezweifle ich, gerne lass ich mich aber eines Besseren belehren.rambo0185 schrieb:Ist natürlich alles nur theoretisch durchgerechnet
[SniperWolf]
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 506
@VenoXj1
wenn du sowas in den Raum wirfst, solltest du aber auch erklären anhand was du festgemacht hast, dass die Farbtiefe bei FI27Q-X nicht so der bringer ist? Mich würde es interessieren da ich selber einen habe und nach Umgewöhnung von TN auf IPS mehr als zufrieden bin.
Denn ich kann keine "schlechte Farbtiefe" ausmachen, er hat weder Color Banding noch irgendwelche gestörten Farbverläufe.
Entweder du meinst mit deiner Aussage etwas anderes, als dass was Farbtiefe an sich aussagt, oder du hattest ein furchtbares Montags Modell.
rtings bestätigt das gute Display. Negativ ist mMn eigtl nur das BGR Layout, aber auch da hab ich mit den richtigen Einstellungen und nach Eingwöhnung keine Probleme mehr.
Zu den Specs:
240hz, 8Bit
200hz, 10Bit
165hz, 10Bit, Black Equalizer 2.0
8Bit = 16,8 Millionen Farben
10Bit = 1,07 Milliarden Farben
In erster Linie bemerkt der normale Konsument das nicht, geht es in die professionelle Bildbearbeitung kann es schon einen Unterschied bedeuten, bzw. hier wird es am ehsten ersichtlich.
Es braucht also auch 10Bit Inhalte damit ein 10Bit Display Sinn ergibt.
Die Beispielbilder die den Unterschied verdeutlichen sollen, sind natürlich extra übertrieben dargestellt, wie soll man sonst der breiten Masse den Unterschied sichtbar machen, wenn der eine ein 8Bit Display nutzt, der andere ein 10Bit Display, der nächste ein 6Bit+2FRC usw.
wenn du sowas in den Raum wirfst, solltest du aber auch erklären anhand was du festgemacht hast, dass die Farbtiefe bei FI27Q-X nicht so der bringer ist? Mich würde es interessieren da ich selber einen habe und nach Umgewöhnung von TN auf IPS mehr als zufrieden bin.
Denn ich kann keine "schlechte Farbtiefe" ausmachen, er hat weder Color Banding noch irgendwelche gestörten Farbverläufe.
Entweder du meinst mit deiner Aussage etwas anderes, als dass was Farbtiefe an sich aussagt, oder du hattest ein furchtbares Montags Modell.
rtings bestätigt das gute Display. Negativ ist mMn eigtl nur das BGR Layout, aber auch da hab ich mit den richtigen Einstellungen und nach Eingwöhnung keine Probleme mehr.
Zu den Specs:
240hz, 8Bit
200hz, 10Bit
165hz, 10Bit, Black Equalizer 2.0
8Bit = 16,8 Millionen Farben
10Bit = 1,07 Milliarden Farben
In erster Linie bemerkt der normale Konsument das nicht, geht es in die professionelle Bildbearbeitung kann es schon einen Unterschied bedeuten, bzw. hier wird es am ehsten ersichtlich.
Es braucht also auch 10Bit Inhalte damit ein 10Bit Display Sinn ergibt.
Die Beispielbilder die den Unterschied verdeutlichen sollen, sind natürlich extra übertrieben dargestellt, wie soll man sonst der breiten Masse den Unterschied sichtbar machen, wenn der eine ein 8Bit Display nutzt, der andere ein 10Bit Display, der nächste ein 6Bit+2FRC usw.
Moin,
Ich schwanke gerade zwischen diversen 27"/1440p-Displays. Jetzt hat MSI ein FW-Update veröffentlicht, dass scheinbar die Farbräume beim MAG274QRF(DE)-QD korrekt begrenzt.
Cool wäre, wenn diverse Tester das nochmal überprüfen würden...
An die, die den hatten und wegen der übersättigten Farben zurück gegeben haben : Würdet ihr den jetzt nochmal in Betracht ziehen? Preislich ist der ja nicht unattraktiv!
BGR beim FI27Q-X kann ich nicht einschätzen, habe da aber Sorge, dass ich mich morgens an den RGB auf Arbeit und abends an den BGR zu Hause gewöhnen müsste. Kann das jmd nachvollziehen?
Und dann die ganzen nicht lieferbaren Geräte...
Bei meinem Eizo EV2736W war das damals einfacher: Spitzen-Ergebnis auf Prad, Null-Pixelfehler-Garantie, Gaming-Monitore (HighRefreshRate) waren "null" für Bildbearbeitung geeignet, Preis ok - fertig!
Und heute scheint bei allen irgendwas nicht zu passen... Auf Clouding und BLB kann ich auch gerne verzichten.
Eigentlich unverständlich, dass es so geile Fernseher gibt - nicht nur Oled - und bei Monitoren kriegt es scheinbar kein Hersteller gebacken.
Also: Hat jmd sachdienliche Hinweise?
Grüße, Frank
Ich schwanke gerade zwischen diversen 27"/1440p-Displays. Jetzt hat MSI ein FW-Update veröffentlicht, dass scheinbar die Farbräume beim MAG274QRF(DE)-QD korrekt begrenzt.
Cool wäre, wenn diverse Tester das nochmal überprüfen würden...
An die, die den hatten und wegen der übersättigten Farben zurück gegeben haben : Würdet ihr den jetzt nochmal in Betracht ziehen? Preislich ist der ja nicht unattraktiv!
BGR beim FI27Q-X kann ich nicht einschätzen, habe da aber Sorge, dass ich mich morgens an den RGB auf Arbeit und abends an den BGR zu Hause gewöhnen müsste. Kann das jmd nachvollziehen?
Und dann die ganzen nicht lieferbaren Geräte...
Bei meinem Eizo EV2736W war das damals einfacher: Spitzen-Ergebnis auf Prad, Null-Pixelfehler-Garantie, Gaming-Monitore (HighRefreshRate) waren "null" für Bildbearbeitung geeignet, Preis ok - fertig!
Und heute scheint bei allen irgendwas nicht zu passen... Auf Clouding und BLB kann ich auch gerne verzichten.
Eigentlich unverständlich, dass es so geile Fernseher gibt - nicht nur Oled - und bei Monitoren kriegt es scheinbar kein Hersteller gebacken.
Also: Hat jmd sachdienliche Hinweise?
Grüße, Frank
- Registriert
- Aug. 2010
- Beiträge
- 39.858
rambo0185 schrieb:Ist natürlich alles nur theoretisch durchgerechnet
Bei meinen Krücken macht das theoretisch dann keinen Unterschied, wenn ein Spiel dann 4 Kerne benutzt und OBS 3 und mindestens 8 vorhanden sind.
Ich brauche massiv mehr IPC auf der CPU. So 30% IPC-Zuwachs würden bei GTA schon gut helfen, um die FPS bei 150-160 zu stabilisieren.
VenoXj1 schrieb:Der hat ja auch wieder ne noch größere Auflösung. Da wird's dann mit der schon so knappen Bandbreite (wenn man allein 10 bit Farbtiefe rechnet) noch schwieriger.
Ja richtig. War vielleicht in meinem Beitrag nicht eindeutig, dass ein 38er da noch mehr Auflösung hat als der 34er. Wobei der 34er auch nur bis 144Hz seine 10 Bit (oder 8+2 FRC) und bei 160Hz ist es weniger, aus Erinnerung. Da allerlings keine weitere Kastration mit Chroma 4:2:2 und so.
VenoXj1 schrieb:Daher hoffe ich ja auf einen 240hz HDMI 2.1 WQHD IPS Monitor der ordentliche Ratings in allem fährt.
Auch die Kisten mit 144-180Hz sollten HDMI 2.1 bekommen und DP 1.4 aufwärts. Meiner hat sogar nur DP 1.2. Oldgen halt.
Ergänzung ()
https://www.rtings.com/monitor/reviews/lg/34gp950g-b
Der 34GP950G-B könnte höchst interessant sein. Der kann 180Hz und hat ein Nvidia-Modul. Leider noch hinter einer Paywall!
Es kommt dann bestimmt noch ein 34GN950-B und verbessert den 850er nochmal und bleibt auch ohne Nvidia-Modul und Nvidia-Steuer bei der ganzen Range nutzbar.
https://www.prad.de/lg-34gp950g-weitere-infos-zum-g-sync-ultimate-monitor/
https://www.lg.com/de/monitore/lg-34gp950g-b
Wird hier aber auch wieder so sein, bis 144Hz 8 Bit + 2 FRC und bei 180Hz dann nur 8 Bit. Kann man sonst auch schön synchron mit einem alten Monitor betreiben 180Hz und 120/60Hz.
Zuletzt bearbeitet:
rambo0185
Lt. Junior Grade
- Registriert
- Dez. 2008
- Beiträge
- 365
Ich glaube das funktioniert anders oder?Banger schrieb:Kann man sonst auch schön synchron mit einem alten Monitor betreiben 180Hz und 120/60Hz.
ich dachte die Hz zahl muss durch die des mainmonitors teilbar sein.
also bei 180hz wären das 60hz oder 90hz
Zornbringer
Captain
- Registriert
- Mai 2011
- Beiträge
- 3.903
weiß nicht, ob es sich lohnt dazu ein eigenes thema aufzumachen. habe eigentlich nur eine ganz kurze frage. ich nutze den "Samsung F27T352FHR" im 75hz modus. manche spiele, wie dark souls 3, unterstützen aber nur 60fps. manchmal stelle ich vsync auch auf 60fps, weil gründe.
allerdings hat der monitor für 60hz und 75hz zwei unterschiedliche helligkeit/kontrast einstellungen. bzw., die einstellungen sind die gleichen, aber die anzeige ist unterschiedlich. in 60hz ist das bild wesentlich heller und weniger kontrastreich.
woran liegt das? farbeistellungen im grafikkarten-treiber sind standard. dort habe ich nichts verändert. am monitor selbst gibt es keine zwei unterschiedlichen profile für die unterschiedlichen bildwiederholfrequenzen.
edit: ich habe mal neugierigerweise in die nvidia einstellungen geguckt und das problem selbst behoben. bei "auflösung ändern" hatte ich die standard einstellungen bei den farbeinstellungen. wählt man aber die nvidia farbeinstellungen, dann verändert sich helligkeit/kontrast nicht zwischen 60hz und 75hz. wäre trotzdem interessant zu erfahren, warum das so ist. warum ist die standardeinstellungen murks?
allerdings hat der monitor für 60hz und 75hz zwei unterschiedliche helligkeit/kontrast einstellungen. bzw., die einstellungen sind die gleichen, aber die anzeige ist unterschiedlich. in 60hz ist das bild wesentlich heller und weniger kontrastreich.
woran liegt das? farbeistellungen im grafikkarten-treiber sind standard. dort habe ich nichts verändert. am monitor selbst gibt es keine zwei unterschiedlichen profile für die unterschiedlichen bildwiederholfrequenzen.
edit: ich habe mal neugierigerweise in die nvidia einstellungen geguckt und das problem selbst behoben. bei "auflösung ändern" hatte ich die standard einstellungen bei den farbeinstellungen. wählt man aber die nvidia farbeinstellungen, dann verändert sich helligkeit/kontrast nicht zwischen 60hz und 75hz. wäre trotzdem interessant zu erfahren, warum das so ist. warum ist die standardeinstellungen murks?
Zuletzt bearbeitet:
- Registriert
- Aug. 2010
- Beiträge
- 39.858
rambo0185 schrieb:Ich glaube das funktioniert anders oder?
ich dachte die Hz zahl muss durch die des mainmonitors teilbar sein.
also bei 180hz wären das 60hz oder 90hz
Wüsste jetzt nicht, warum das nicht gehen sollte. Während der 60er ein Bild anzeigt, zeigt der 180er 3 Bilder, vollständig, während ein 165er mit dem dritten Bild noch nicht fertig ist, wenn der 60er mit einem fertig ist.
[SniperWolf]
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 506
Genau den Fall habe ich. Anfangs habe ich mich sehr dran gestört, aber mittlerweile seh ich es nicht mehr gravierend da der Rest für mich zu dem Preis mehr als passt.FrankPan schrieb:BGR beim FI27Q-X kann ich nicht einschätzen, habe da aber Sorge, dass ich mich morgens an den RGB auf Arbeit und abends an den BGR zu Hause gewöhnen müsste. Kann das jmd nachvollziehen?
Clear Type auf BGR eingestellt und zumindest auf dem Desktop ist kein Unterschied zum RGB erkennbar.
Was mir am ehsten auffällt, in Chrome greift Clear Type nicht, da finde ich es auf der Arbeit etwas angenehmer zu surfen, aber wie gesagt, dran gewöhnt und kein Beinbruch mehr.
Wenn er in deiner engeren Auswahl ist, empfehle ich dir einen Shop zu nehmen wo du auch nach 30 Tagen noch ein Rückgaberecht hast und es einfach mal auszuprobieren.
[SniperWolf]
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 506
Da das bei mir kein Anwendungsfall ist, kann ich dazu gerade keine gute Aussage treffen.
Aber mir fällt gerade bei 140hz+ Ghosting bei dunkel Übergängen auf, da ich zZ Days Gone spiele und mir das beim Hinterreifen in schneller Fahrt ziemlich stark ins Auge springt
Ist bis jetzt jedoch der einzige Fall wo es mir störend aufgefallen ist.
Aber mir fällt gerade bei 140hz+ Ghosting bei dunkel Übergängen auf, da ich zZ Days Gone spiele und mir das beim Hinterreifen in schneller Fahrt ziemlich stark ins Auge springt
Ist bis jetzt jedoch der einzige Fall wo es mir störend aufgefallen ist.
- Registriert
- Aug. 2010
- Beiträge
- 39.858
Also zwischen den beiden quasi:
https://www.rtings.com/assets/pages/Z11nHXnP/tables-max-balance-large.jpg
https://www.rtings.com/assets/pages/Z11nHXnP/tables-60-balance-large.jpg
Der X braucht also nachwievor eine Stufe zwischen Picture Quality und Balance oder alternativ ein Nvidia-Modul.
Ich fand es bei meinem XB271HUB ironischerweise nicht so sehr auffällig bei dunklen Übergängen, wo ich mal OD auf Extreme gestellt habe. (Ich glaube nachwievor, dass das Gerät von RTINGS auch beim 144er-Modus verbugt war, daher kein Schaltzeitenbild.)
https://www.rtings.com/assets/pages/Z11nHXnP/tables-max-balance-large.jpg
https://www.rtings.com/assets/pages/Z11nHXnP/tables-60-balance-large.jpg
Der X braucht also nachwievor eine Stufe zwischen Picture Quality und Balance oder alternativ ein Nvidia-Modul.
Ich fand es bei meinem XB271HUB ironischerweise nicht so sehr auffällig bei dunklen Übergängen, wo ich mal OD auf Extreme gestellt habe. (Ich glaube nachwievor, dass das Gerät von RTINGS auch beim 144er-Modus verbugt war, daher kein Schaltzeitenbild.)
Das habe ich bei verschiedensten Reviewern gelesen, welches genauer auf die Farbtiefe einging. Müsste ich dann mal schauen, wo ich das überall gelesen habe, mal schauen ob ich mich dazu überreden kann.[SniperWolf] schrieb:wenn du sowas in den Raum wirfst, solltest du aber auch erklären anhand was du festgemacht hast, dass die Farbtiefe bei FI27Q-X nicht so der bringer ist?
Ne, spreche schon genau die Farbtiefe an und ich habe den auch schon gar nicht mehr. Wurde mit dem nicht warm, hat mich anhand der Resultate bei rtings auch nicht so überzeugt. Das, was mich am meisten gestört hat, waren die Kompromisse der Bildwiederholrate wenn man einige Features nutzt, so wie du das auch aufgelistet hast. Ganz geschweige von dem wirklich ekelhaften IPS Glow und toten Pixel, die ich bei meinen 3 Modellen finden konnte. Hatte da auch etwas Unglück, würde ich behaupten. Dazu kam noch das subpixel-Layout. Hat bei dem Preis da nichts zu suchen.[SniperWolf] schrieb:Entweder du meinst mit deiner Aussage etwas anderes, als dass was Farbtiefe an sich aussagt, oder du hattest ein furchtbares Montags Modell.
Zuletzt bearbeitet: