Warum gibt es keine 1080p OLED Monitore? (oder andere schlierenfreie 1080p)

@cartridge_case Das ist das beste Bild was ich mit meinem Phone machen konnte wo am wenigsten Moire Patterns erkennbar waren und das Blurring durch die Handyaufnahme auch nicht zu krass war. Habs grad nochmal probiert aber ich kann das was ich mit meinen Augen sehe nicht so aufnehmen, da kommt die Kamera nicht mit. Musst allerdings auch beachten dass ich in dem Bild sehr nah dran bin und praktisch sehr schnell, sehr nah an der Wand entlang gestrafed bin, deswegen auch der große Abstand der "Geisterbilder".

Monitor hab ich schon gepostet: Acer Predator XB253QGP Full HD, 165Hz (https://www.amazon.de/dp/B093ZTJLGN)
Das Spiel lief mit 165FPS, Monitor auf 165Hz gestellt. GPU sollte keine Rolle Spielen, ist aber eine ASUS TUF 3060Ti, verbunden sind die beiden über ein günstiges DisplayPort Kabel: https://www.amazon.de/IVANKY-DisplayPort-geeignet-Monitor-Gaming-Grafikkarte-Grau/dp/B07JQKWX3C

Edit: Was für Einstellungen ich am Monitor da hatte weiss ich nicht mehr, ist schon ne Weile her aber hab glaub immer noch sehr ähnliche. Hab aber ausgiebig alles mögliche ausprobiert und viel besser wurde es nicht.
 
Das typische ghosting halt,kannst versuche das overdrive auszustellen,aber dann haste wohl ordentlich smearing.

1080p OLED wird schon noch kommen,aber sehr spät weil 1080p langsam mal ausgedient hat.

Mittlerweile kann man aber 1440p gut befeuern ohne ein vermögen auszugeben,also noch ewig warten bis mal 1080p OLED kommt oder endlich mal von der gummel Auflösung runter.
Ergänzung ()

HallodrioBär schrieb:
weil ich viele Leute davon schwärmen hören habe: "Überhaupt keine Schlieren, wow!
Viele sind blind,auf sowas geb ich schon lange nix mehr^^
 
Wie soll 1080p ausdienen wenn sich nichts mehr am GPU Markt tut, ausser dass immer größere und teurere Karten rauskommen? Früher konnte man alle paar Jahre eine neue GPU kaufen zum gleichen Preis wie man für die alte beim Neukauf ausgegeben hat und hat dafür aber mindestens die doppelte Leistung erhalten, aber heute werden die ja kaum noch schneller weil einfach das Limit von Moore's Law erreicht ist. Wenn heutzutage neue Karten rauskommen, sind die nur schneller weil mehr drinsteckt und nicht weils effizienter ist, und das spiegelt sich auch im Preis wieder, doppelte Power, doppelter Preis. 1440p hat 2.25x mehr Pixel und braucht demnach auch 2.25x mehr Power um die gleiche FPS zu erreichen, und das kostet 2.25x mehr Geld. Würde 1080p wegfallen wären Kunden gezwungen mehr als den doppelten Preis für GPUs auszugeben nur um mit der Auflösung mithalten zu können. Meiner Meinung hat 1080p erst ausgedient wenn man mit ner 500€ GPU über 100FPS in 1440p erreichen kann.

Und ja es gibt Techniken zum Upsampling und was weiss ich, inklusive neuer KI womit man sich FPS künstlich ercheatet, ich find das aber einfach nur eine schludrige Notlösung die das Bild verschmiert und künstliche Artefakte hinzufügt. Wie als würde man Zucker gegen Süßstoff tauschen, man merkt dass irgendwas komisch daran ist, selbst wenn man jetzt nicht direkt mitm Finger zeigen kann.
 
  • Gefällt mir
Reaktionen: Chocobo und clarkathome
Naja ne 7800XT gibts für 500Euro,die ist dazu schon in der Lage.
Gibt ja auch nochwas anderes als die regler stur nach rechts zu drehen.


Das 1080p nicht mehr so gefragt ist,sieht man ja,da mittlerweile zuerst WQHD und UHD bedient wird was Monitore angeht,irgendwann nach jahren mal dann FullHD oder auch nicht mehr.
Zumindest zeigt die OLED Roadmap auch für 2025 kein FullHD.

An upscaling wirste dich wohl gewöhnen müssen,schmeckt mir auch nicht aber was ist die alternative?
Nicht mehr zocken?

Da wirste früher oder später auch in fullhd nicht mehr ohne auskommen.
 
Zuletzt bearbeitet:
HallodrioBär schrieb:
Wie soll 1080p ausdienen wenn sich nichts mehr am GPU Markt tut, ausser dass immer größere und teurere Karten rauskommen?
Naja. Die Preise spinnen durchaus etwas, allerdings was willst du machen. Inflation und der Markt usw. Effizienter sind die Karten auch geworden.

Und früher brauchten die Gamer auch keine 240 oder gar 360 FPS um kompetetiv zocken zu können...

Und das Upscaling wird immer besser, ich hab keinen Schmerz damit. Schlimm ist eher, dass teilweise triple A Games aussehen wiw vor 15 Jahren und trotzdem massiv Performance Probleme vorhanden sind.

Aber mal back 2 Topic.
Das dein Monitor einen weg hat, kannst du ausschließen?
 
Hast du schon Mal mit der Overdrive Einstellung im monitor herumgespielt? Das sieht einfach zu schnell eingestellt aus.
 
Hast du mal bei einem Kumpel an seinem Rechner gespielt?

Was man in deinem Bild sieht, sind ja keine Schlieren, sondern Ghosting, oder?
Und so krasses Ghosting sollte nun echt nicht vorkommen heutzutage.
 
HallodrioBär schrieb:
Wie soll 1080p ausdienen wenn sich nichts mehr am GPU Markt tut,
Das hat ja nun fast nichts mit dem GPU-Markt zu tun.
1080p hatte ich vor 11 Jahren und da war ich schon einer der Letzten.
Auf WQHD bin ich vor 2 Jahren gekommen, wieder sehr spät.

HallodrioBär schrieb:
Früher konnte man alle paar Jahre eine neue GPU kaufen zum gleichen Preis wie man für die alte beim Neukauf ausgegeben hat und hat dafür aber mindestens die doppelte Leistung erhalten,
Meine Voodoo hat 314.- DM gekostet als schnellste Consumer-Karte der Welt und hat alles andere nur so weggefetzt in 3D.

HallodrioBär schrieb:
aber heute werden die ja kaum noch schneller weil einfach das Limit von Moore's Law erreicht ist.
Wo steht denn so etwas?

HallodrioBär schrieb:
Wenn heutzutage neue Karten rauskommen, sind die nur schneller weil mehr drinsteckt und nicht weils effizienter ist,
Ähem, Käse.

HallodrioBär schrieb:
und das spiegelt sich auch im Preis wieder, doppelte Power, doppelter Preis.
Das konnten sich die Hersteller in Corona erlauben.
Es gab vorher fast keine Karte über 1.000 EUR bis auf die Titan.
Der Kunde hat es bezahlt und so wird es bleiben.

HallodrioBär schrieb:
1440p hat 2.25x mehr Pixel und braucht demnach auch 2.25x mehr Power um die gleiche FPS zu erreichen,
Das rechnest Du mal bitte detailliert vor:

HallodrioBär schrieb:
und das kostet 2.25x mehr Geld.
Steile These.

HallodrioBär schrieb:
Würde 1080p wegfallen wären Kunden gezwungen mehr als den doppelten Preis für GPUs auszugeben nur um mit der Auflösung mithalten zu können.
So ist es gekommen und 1080p ist längst Geschichte im Zeitalter von 4k und mehr.

HallodrioBär schrieb:
Meiner Meinung hat 1080p erst ausgedient wenn man mit ner 500€ GPU über 100FPS in 1440p erreichen kann.

Hahaha:


Dreamer, you know you are a dreamer.

HallodrioBär schrieb:
Und ja es gibt Techniken zum Upsampling und was weiss ich, inklusive neuer KI womit man sich FPS künstlich ercheatet,
Ich weiß nicht, wo Du hängen geblieben bist, aber da wird nicht gecheatet, sondern wirklich gerechnet.

HallodrioBär schrieb:
ich find das aber einfach nur eine schludrige Notlösung die das Bild verschmiert und künstliche Artefakte hinzufügt.
Werden die nicht weggerechnet?
 
  • Gefällt mir
Reaktionen: Azghul0815
VanDuits schrieb:
Hast du schon Mal mit der Overdrive Einstellung im monitor herumgespielt? Das sieht einfach zu schnell eingestellt aus.
Hab ich ja schon geschrieben,laut rtings taugt das overdrive auch nicht,und man sollte es ganz ausstellen,schon bei normal gibt es extrem overshoot.


1721291755149.png

Hier das ganze mit off.

1721291843489.png

Da wurde sich null mühe gegeben.
 
  • Gefällt mir
Reaktionen: Azghul0815 und VanDuits
@HallodrioBär dein letzter Post strotzt nur von Ahnungslosigkeit, sorry.

Je nach Spiel kriegst du z.b. mit DLSS eine mindesten genauso gute, oft sogar leicht bessere Bildqualität.

Grafikkarten werden nicht effizienter? Dann vergleiche mal eine 1080Ti und eine 4070 beim Verbrauch und der Leistung, nur mal ein Beispiel.

Ich persönlich würde nie wieder freiwillig auf Full HD gehen, weil das nur bei Mini Monitoren (21-24") sauber aussieht. So einen kleinen Monitor will ich nicht haben.

Btw, meine RTX 4090 (Powerlimit bei 350 Watt) ist, gemessen an der Leistung in Kombination mit dem Verbrauch) die effizienteste Karte die ich jemals hatte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wuselsurfer, eraser4400 und tollertyp
Ghosting kannst du auch großteils mit Backlight Strobing / DyAc / ULMB entgegenwirken.

1721302120931.png

Quelle
 
HallodrioBär schrieb:
Meines Wissens nach muss man um die hohen Hz überhaupt nutzen zu können auch dementsprechend viele FPS erreichen können, sonst bringen die Hz nichts.
Das eine hat mit dem anderen gar nichts zu tun.
Die Hz Zahl ist sowohl eine Abtastrate, als auch die Refreshrate des Monitors.
Die FPS sagt nur aus, wann auch neuer Inhalt dafür bereit steht.
Du kannst auch mit 24FPS deinen Monitor auf 144Hz stellen.
Wenn du 24FPS hast und 144Hz wird halt ein Bild sechsmal neu dargestellt.
Kommt alle 1/144=6,9ms ein Bild ist das schon recht anständig schlierenfrei.

Probleme gibt es noch, wenn der Bildaufbau träge ist, also bis der Flüssigkristall "kippt", was bei langsamen, zb VA Panels, ein Problem ist. Dann entsteht Ghosting. Backlight Strobing würde in dem Umschaltvorgang kurz die Hintergrund Beleuchtung abschalten, dass man die Schlieren nicht sieht. OLEDs sind in dem Bezug hat einfach extrem gut.

Ebenso kann man dann noch das Problem mit dem Tearing haben, wenn gerade das neue Bild gelesen (entsprechend dem Begriff Abtastrate also eher abgetastet wird) der PC aber gerade im selben Moment ein neues Bild in den Ausgangspuffer schreibt.

Die Auflösung wählt man ausschließlich nach Monitorgröße und Sitzabstand aus. Nicht wegen der FPS.
Ergänzung ()

HallodrioBär schrieb:
Und ja es gibt Techniken zum Upsampling und was weiss ich, inklusive neuer KI womit man sich FPS künstlich ercheatet, ich find das aber einfach nur eine schludrige Notlösung die das Bild verschmiert und künstliche Artefakte hinzufügt.
DLSS und FSR haben nachweislich ein besseres Bild als nativ (ohne AA).
Das schalte ich mit meiner 4090 immer an, wenn verfügbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azghul0815
wuselsurfer schrieb:
Das rechnest Du mal bitte detailliert vor:
Ok ich weiss nicht wie ich auf 2.25 gekommen bin, hab das irgendwann mal gelesen und das ist mir im Kopf geblieben. Hier stehts komischerweise auch noch obwohl nachdem ich nachgerechnet habe es nur auf 1.77x kommt.
https://reolink.com/blog/1440p-reso...as many pixels versus 1080p FHD (1920 × 1080).

HallodrioBär schrieb:
und das kostet 2.25x mehr Geld.
Steile These.
Stimmt, würde sogar noch mehr kosten, da eine doppelt so teuere GPU nichtmal doppelte FPS bringt:
https://technical.city/en/video/GeForce-RTX-4070-vs-GeForce-RTX-4080
This is how RTX 4070 and RTX 4080 compete in popular games:

  • RTX 4080 is 14% faster in 1080p
  • RTX 4080 is 39% faster in 1440p
  • RTX 4080 is 55% faster in 4K
Oder hier noch ne andere GPU Vergleichseite, andere Quellen hab ich nicht da ich mir zum testen nicht mal beide kaufen kann nur um hier im Forum ein Argument zu gewinnen.
https://bestvaluegpu.com/comparison/geforce-rtx-4080-vs-geforce-rtx-4070/
4080 vs 4070: +57.3%

RTX 4070: ca 550€
RTX 4080: ca 1000€
Bügelbernd schrieb:
Grafikkarten werden nicht effizienter? Dann vergleiche mal eine 1080Ti und eine 4070 beim Verbrauch und der Leistung, nur mal ein Beispiel.
Ich meinte eher die Preis-Leistungseffizienz, nicht Strom etc. Neue Karten kosten 2x soviel wie ältere aber bieten "nur" 3x soviel Leistung.

Um aber mal wieder aufs Thema zurückzukommen:
Wenn es keine 1080p Monitore gibt und geben wird, was würdet ihr mir dann eher empfehlen mit einer 4060 Ti, einen 1440p oder 4K der mit 1080p betrieben wird, oder ingame DLSS (o.ä.) upscaled von 1080p -> 4K? Am allerwichtigsten ist mir wie gesagt so wenig Ghosting/Schlieren/Afterimages etc wie möglich zu haben.
 
  • Gefällt mir
Reaktionen: Bügelbernd
Vielleicht erstmal den aktuellen Monitor korrekt einstellen? ;)
Und prüfen, ob ein Kumpel einem OLED zum Testen hat bzw. allgemein mal prüfen, ob du da ähnliche Sinneseindrücke hast.

Du ignorierst völlig diverse Beiträge zu dem Thema...
 
  • Gefällt mir
Reaktionen: cartridge_case
HallodrioBär schrieb:
Und ja es gibt Techniken zum Upsampling und was weiss ich, inklusive neuer KI womit man sich FPS künstlich ercheatet, ich find das aber einfach nur eine schludrige Notlösung die das Bild verschmiert und künstliche Artefakte hinzufügt
1440p mit DLSS Quality sieht in nahezu allen Spielen sauberer aus als 1080p Native (und läuft bei ca gleicher Bildrate).

Das ist mein "cheating" oder Notlösung oder sonstwas. Es ist eine algorithmische Methode, die Performance zu verbessern bei möglichst unterproportionalem Verlust der Bildqualität. Und das klappt mittlerweile verdammt gut.
Ergänzung ()

HallodrioBär schrieb:
1440p hat 2.25x mehr Pixel und braucht demnach auch 2.25x mehr Power um die gleiche FPS zu erreichen
1.77x Pixel ;)

Und jein. Das skaliert in echten Spielen nicht genau so. Die Fragment Stage skaliert nahezu linear mit der Pixelzahl, ist aber nur ein Teil der gesamten Pipeline.

Real braucht es weit weniger als 1.5x Power um 1440p mit gleichen FPS wie 1080p zu rendern. Mit Upscaling nochmal deutlich weniger, wenn du auch die Bildqualität mit rein nimmst, weil die meisten Upscaling Verfahren bei 1440p Output noch was brauchbares zaubern, bei 1080p Output aber gern mal zu starke Artefakte zeigen.
Ergänzung ()

HallodrioBär schrieb:
was würdet ihr mir dann eher empfehlen
Das Overdrive an deinem aktuellen Monitor reduzieren, bevor du einen neuen Monitor kaufst und den auch mit schlechten Einstellungen betreibst.
Ergänzung ()

HallodrioBär schrieb:
da eine doppelt so teuere GPU nichtmal doppelte FPS bringt
Da kommt offensichtlich noch starkes CPU Limit mit rein, so kannst du die GPU Leistung eh nicht direkt vergleichen.
 
Zuletzt bearbeitet:
An meinem Bildschirm gibts so gut wie nichts einzustellen, was soll da falsch eingestellt sein.

Unter Gaming gibts:
  • Overdrive Off/Normal/Extreme, das ist auf normal weils sonst zu blurry ist.
  • VRB ist ausgegraut weil nur verfügbar für 80Hz oder 120Hz, meiner läuft mit 165Hz.
  • Ultra Low Latency an/aus ändert sich kaum was, hab ich aber auf an gelassen.
  • Dann gibts noch Adaptive Sync wodurch die anderen Einstellungen ausgegraut werden und noch krasseres Ghosting entsteht.

Das wars für das Gaming Tab, dann gibts noch das Allgemein Tab mit:
  • Super Sharp (ist aus weil Text sonst hässliche Kanten bekommt)
  • Black Boost ist auf 5/10 weils irgendwie am besten aussieht
 
HallodrioBär schrieb:
Overdrive Off/Normal/Extreme, das ist auf normal weils sonst zu blurry ist.
Hab ich dir ja gepostet,entweder mit blurry oder ghosting leben.

Mehr gibts nicht.

Oder OLED 1440p kaufen.
 
  • Gefällt mir
Reaktionen: cbtaste420
Hast du im Spiel Bewegungsunschärfe an? Nicht, dass das zusätzlich Blurry erzeugt... ;)
 
Zurück
Oben