Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News DisplayPort 2.1: Erste Monitore inklusive 8K UltraWide ab Anfang 2023
- Ersteller MichaG
- Erstellt am
- Zur News: DisplayPort 2.1: Erste Monitore inklusive 8K UltraWide ab Anfang 2023
Blumentopf1989
Commander
- Registriert
- Okt. 2010
- Beiträge
- 2.738
Kommt auf das Spiel an, aber spätestens seit der 4090 gibt es sie (Leistung).
Echte 8k und nicht dieses nur in die Breite gezogene halbe 8k sind eine ganz andere Hausnummer.
Echte 8k und nicht dieses nur in die Breite gezogene halbe 8k sind eine ganz andere Hausnummer.
meisterkatzen
Lt. Junior Grade
- Registriert
- Juni 2022
- Beiträge
- 298
7.680 × 2.160 oder gar 8.192 × 2.304 px wären zum Arbeiten ein echter Fortschritt. Hab derzeit 4* 32" 4k aber so hundertprozentig glücklich war damit nie.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
Jetzt habe ich hier auch mal die Frage. Im Gegensatz zu meinem C1, welchen ich mit HDMI 2.1 und 4K120; 10Bit und Freesync betreibe, gibt es ja mittlerweile auch richtige OLED Monitore, z.B. von Asus und LG.
Die besitzen auch allesamt ein LG Panel, haben aber nicht nur HDMI 2.1, sondern auch DP 1.4 und Overclocking von 120Hz auf 138Hz.
Wenn man sich so einen Monitor holt, was macht dann mehr Sinn? Anschluss über HDMI 2.1, oder DP 1.4 und warum?
Die besitzen auch allesamt ein LG Panel, haben aber nicht nur HDMI 2.1, sondern auch DP 1.4 und Overclocking von 120Hz auf 138Hz.
Wenn man sich so einen Monitor holt, was macht dann mehr Sinn? Anschluss über HDMI 2.1, oder DP 1.4 und warum?
meisterkatzen
Lt. Junior Grade
- Registriert
- Juni 2022
- Beiträge
- 298
Na so ein Quatsch, gerade am PC machen 8k Sinn. 8k Retina sind vom Platz her nur ordinäre 4k und das ist ja nicht gerade viel.Somerset schrieb:Das beste was Apple je gemacht hat war die retina Zertifizierung. 8K macht in der Regel nicht mals beim TV Sinn!
Sorry aber 8K PC Monitore sind eine reine Ressourcen Verschwendung.
Am TV machen 8k bei den aktuellen Größen nicht viel Sinn. Wir haben 75" 8k und da sieht man ab 2m kaum einen Unterschied. Ab 100" sieht das ganze aber vielleicht anders aus, gibts aber noch nicht
Zuletzt bearbeitet:
BloodReaver87
Lieutenant
- Registriert
- Juni 2009
- Beiträge
- 947
Also das "news" Update wenn man es so sagen darf, war doch keine Zeile Wert. Da steht nur drin das es eigentlich nix neues gibt XD....
- Registriert
- Juli 2010
- Beiträge
- 13.387
@SKu Ah interessant, muss gleich nochmal wegen einem anderen Artikel in die Footnotes schauen. Das ist echt bisl mies von AMD, das als 8K zu bezeichnen .. Habe es hier ergänzt. Danke!!
@BloodReaver87 Ich dachte besser ein Mini-Happen als nichts. Aber ja, hätte ich mir auch sparen können.
@BloodReaver87 Ich dachte besser ein Mini-Happen als nichts. Aber ja, hätte ich mir auch sparen können.
Fakechaser
Lt. Junior Grade
- Registriert
- Aug. 2020
- Beiträge
- 505
JohnDeclara schrieb:Also als Besitzer eines Samsung Odyssey G9 (5120x1440@240Hz) finde ich es völlig unnötig einen 32:9-Monitor in 49Zoll mit 8K zu versehen.
Ich hatte zwei 27 Zoll Monitore mit jeweils 2560x1440.
Jetzt habe ich nur noch ein 16,2 Zoll MacBook Pro mit 3456 x 2234.
Von zwei nebeneinander stehenden 27 Zoll 5K iMacs ausgehend hätte ich gerne einen größeren Monitor mit 10240x2880, weil ich auf HiDPI nicht mehr verzichten möchte.
VirusA87
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 844
HDMI 2.1 sollte besser funktionieren da es von der Bandbreite her ohne DSC auskommen kann.t3chn0 schrieb:Anschluss über HDMI 2.1, oder DP 1.4 und warum?
DP 1.4 braucht für alles über 120Hz/UHD auf jedenfall DSC.
Hab meinen UHD Monitor von 144 Hz auf 120 Hz runter gestellt, da die Kompression einfach sichtbar schlechter ist. Da opfer ich lieber ein paar Bilder pro Sekunde. HDMI 2.1 hat meine Grafikkarte leider noch nicht.
DP 2.x ist sowohl bei Monitoren als auch bei Grafikkarten überfällig bei diesen Auflösungen / Bildwiederholraten. Wenn du schon einen C1 hast würde ich eher auf Modelle mit aktueller Technik warten.
DP 1.4 ist einfach veraltet sowohl an solchen Monitoren als auch Grafikkarten.
Zuletzt bearbeitet:
michelthemaster
Lieutenant
- Registriert
- Dez. 2011
- Beiträge
- 917
Laphonso schrieb:7680x2160 sehe ich für mich als möglichen Wechsel von 3440x1440 mit der 5090 dann in 2 Jahren 😂
Dann sollte das auch mit der GPU Power passen.
Ergänzung ()
Gibt es überhaupt hier 4090 Besitzer, für die das relevant ist? In meinem Umfeld sind wir 5.
DP 2.0 braucht da niemand.
Gibt es hier im Forum jemanden, der akut davon betroffen ist? Ernste Frage.
Ergänzung ()
Da für AMD die 4090 diese Generation unerreichbar ist, muss man halt whatboutism Felder erfinden, um zu punkten ;-) "Wir verlieren jeden Benchmark, aber wir haben DP 2.0!"
Denn 4090er können nur mit DP 2.0 einen Sinn ergeben!
Jetzt nur mal zum Verständnis: Auch beim arbeiten freue ich mich über jedes zusätzliche Hertz und möchte niemals wieder zurück zu 60Hz gehen. Eine hohe Auflösung ist insbesondere zum arbeiten sehr hilfreich und angenehmer, weil Schriften klarer und deutlicher zu lesen sind.
Die Leistung der RXT 4090 ist toll, aber warum muss man unbedingt alle Kritikpunkte der Karte verteidigen? Ein Displayport 1.4 Anschluss ist (gerade für den Preis) eine absolute Frechheit und schränkt zukünftig die Auswahl für Monitore deutlich ein. Bitte einfach mal akzeptieren, dass dies ebenso wie ein mangelhafter (und ggf. gefährlicher) Adapter sowie eine absurde Leistungsaufnahme Argumente für manche sein können, eben nicht diese Karte zu kaufen. Ebenso gibt es Leute, die für die letzten zusätzlichen 15 % dann eben zugreifen...
LG
Micha
PS: 8x2k muss nicht sein. Ich würde mich tatsächlich eher über ordentliche und schnelle (240Hz) 5120x2160px Displays freuen. Was mich bei den ganzen Ultrawide-Monitoren bisher immer gestört ist entweder, dass aufgrund der Auflösung keine native Anzeige von 4k Material möglich ist (absolutes No-Go für mich als Fotograf und Videoschnitt-Begeisterter) oder alternativ, dass sie eher schlecht zum spielen waren (maximal 75Hz bisher). Ansonsten könnte ich mir das schon gut vorstellen.
Pltk
Cadet 4th Year
- Registriert
- Juni 2019
- Beiträge
- 125
Solange es keine Monitore mit DP 2.1 gibt kann auch niemand davon betroffen sein - und Monitore mit DP 2.1 kann es erst geben wenn es Grafikkarten dafür gibt. Dank AMD bekommen wir nun Grafikkarten & Monitore mit DP 2.1.Laphonso schrieb:Gibt es überhaupt hier 4090 Besitzer, für die das relevant ist? In meinem Umfeld sind wir 5.
DP 2.0 braucht da niemand.
Gibt es hier im Forum jemanden, der akut davon betroffen ist? Ernste Frage.
Wer sich in einem Jahr oder so einen neuen High End Monitor kaufen möchte könnte durch seine extrem teure RTX 4090 trotz vorhandener Leistung durch den veralteten DisplayPort 1.4a in seiner Kaufentscheidung eingeschränkt werden.
Grafikkarten können schon lange 4K 144Hz. Ist nur eine Frage davon welche Spiele man mit welchen Grafikeinstellungen spielt.Leon_FR schrieb:solange es nicht mal 4k 144hz hardware ( grakas) gibt macht das eig noch keinen sinn.
S
SI Sun
Gast
Was ist die Regel?Somerset schrieb:8K macht in der Regel nicht mals beim TV Sinn!
Ein TV kann man als Monitor Ersatz verwenden und wenn man "nah" davor sitzt, sind 4k sogar zu pixelig. Da braucht es schon 8k, um die PPI eines Monitors zu erreichen.
Früher waren 1080p auf 24 Zoll hochauflösend.
Wenn ich heute 1080p auf 24 Zoll ertragen muss, hoffe ich schnellstmöglich wieder zu meinem 1600p auf meinen 16 Zoll Notebook-Monitor arbeiten zu können. Die Pixel auf dem 24 Zoll kann man buchstäblich zählen, wenn man sich die Buchstaben genau ansieht.
Auf 30 Zoll erwarte ich bereits 4k, damit die Darstellung ordentlich scharf bleibt.
Auf 55 Zoll oder mehr sind 8k demnach der logische Schritt, um einen TV als ernsthaften Monitor-Ersatz zu nutzen.
Der wahrlich einzige Grund, warum ich keinen 8k TV gekauft habe, sind die geringen 60 Hz.
Selbst auf 55 Zoll sind meine 120 Hz noch sichtbar schlechter als 165 Hz auf 16 Zoll. Das sieht man!
Bei 55 Zoll und 4k sollten es schon locker 240 Hz, damit die mit 24/27 Zoll 144 Hz Monitoren mithalten können, was die flüssige Darstellung angeht.
Je größer (und näher) das Bild, desto mehr Hertz und Pixel braucht es.
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.537
Also Du hast eine und stehst vor Deinem DP 2 Monitor und merkst "Oh nein, Geht nicht!"michelthemaster schrieb:Ein Displayport 1.4 Anschluss ist (gerade für den Preis) eine absolute Frechheit
Oder wollen wir über reale usecases diskutieren?
Ich kenne mehr Enthusiasten als wohl viele hier, was an meiner Altersgruppe liegt und daran, dass da alle in fair bezahlten Vollzeitjobs sind.
Für niemanden dort spielt DP 2.0 eine Rolle. Nullkommanull.
Wir sind froh, dass man die aktuellen Auflösungen endlich mal "ausfahren" kann mit fps+settings.
Für alle anderen, diese unfassbaren MASSEN, die nun ausgrechenet deshalb die 4090 liegenlassen müssen ;-) gibts dann ja AMD.
CDLABSRadonP...
Commodore
- Registriert
- Feb. 2021
- Beiträge
- 4.228
Gibt es schon seit Jahren. Die beiden günstigsten und schwächsten wären die 1030 und die RX 550, kosten unter 100€. Die haben DP 1.4 und können ihn auch voll und ganz nutzen.Leon_FR schrieb:solange es nicht mal 4k 144hz hardware ( grakas) gibt macht das eig noch keinen sinn.
RogueSix
Banned
- Registriert
- Apr. 2020
- Beiträge
- 2.834
t3chn0 schrieb:Jetzt habe ich hier auch mal die Frage. Im Gegensatz zu meinem C1, welchen ich mit HDMI 2.1 und 4K120; 10Bit und Freesync betreibe, gibt es ja mittlerweile auch richtige OLED Monitore, z.B. von Asus und LG.
Die besitzen auch allesamt ein LG Panel, haben aber nicht nur HDMI 2.1, sondern auch DP 1.4 und Overclocking von 120Hz auf 138Hz.
Wenn man sich so einen Monitor holt, was macht dann mehr Sinn? Anschluss über HDMI 2.1, oder DP 1.4 und warum?
Die Frage habe ich hier auch schon mal gestellt und die Antworten waren... "durchwachsen" . Es gibt Leute, die fest überzeugt sind, dass DSC (per DP 1.4) mit Qualitätsverlust einhergeht, was meiner Meinung und Erfahrung nach definitiv nicht der Fall ist. Auch die VESA hat DSC ja als "visually lossless" zertifiziert, also als "verlustfrei".
Trotzdem würde ich beim Anschluss eines OLED-Displays und Vorhandensein von HDMI 2.1 auf beiden Seiten (Grafikkarte und Monitor/TV) den HDMI 2.1 Anschluss nehmen, weil... warum nicht?
Laut Leuten, die sich relativ gut mit der Thematik auskennen, nämlich TFT Central, ist es völlig egal, ob man DP 1.4 oder HDMI 2.1 wählt/nutzt. Dies habe ich jetzt gerade erst in einem Video von denen gehört, wo es um den ASUS PG42UQ und den LG C2 ging.
Apropos... nach Ansicht dieses Videos hier und der 1:1 Vergleiche in Sachen Bildqualität ab ca. 14:40 bin ich erst mal von meinem Plan, mir eventuell den ASUS anzuschaffen, nachhaltig geheilt. Das ist ja schon fast ein Unterschied wie Tag und Nacht.
[übrigens die Aussage zu HMDI 2.1/DP 1.4 fiel glaube ich auch in diesem Video... lohnt sich auf jeden Fall das mal in Gänze anzuschauen].
Ich überlege nun vielmehr sehr ernsthaft, mir einen C2 zuzulegen, zumal der ja auch gute €600 bis €700 günstiger als der ASUS Monitor ist und dazu viel leichter/besser verfügbar obendrein.
Wenn es die Tage ein gutes Black Friday oder Cyber Monday Angebot unter €1000 gibt, dann steht der hier vermutlich demnächst vor mir auf dem Schreibtisch .
In einer idealen Welt würden LG selbst den 42" mit ihrem EVO Panel als Monitor ohne AG Coating anbieten. Das wäre ein Träumchen.
Mir ein Rätsel, warum die den Amateuren von ASUS mit ihren Apothekenpreisen das Feld überlassen.
Amateure sage ich auch deshalb, weil es offenbar massive Probleme mit den bisherigen Firmwares des PG42UQ gegeben hat, inklusive "bricked displays", so dass eine Firmwareversion ganz zurückgezogen werden musste. Das Display hat gemäß User-Berichten noch einige erhebliche "Bugs" und das nächste Update soll nun Mitte November (diese Woche?) kommen.
Alles in allem scheint mir der LG TV trotz einiger TV-typischer Mankos das rundere Produkt. Vor allem die viel bessere Bildqualität macht den entscheidenden Unterschied für mich.
KitKat::new()
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.869
8k sind wie 4k immer unnötig - ändert nichts daran, dass manche einen Mehrwert davon haben.ChrisM schrieb:5K Ultrawide mit 144Hz wäre mir viel lieber als noch lange unnötige 8K.
Hier geht es aber nicht um den reinen Platzgewinn auf dem Bildschirm, hier geht es in erster Linie um Darstellungsqualität! Wann geht das endlich mal in eure Köpfe rein! Mehr als 200 PPI ist hier das Ausschlaggebene. Wenn man das einmal verstanden hat, dann braucht man auch nicht mit Pixel-Zahlen um sich werfen, weil man ansonsten immer noch dazu wissen muss, auf was für eine Diagonale sich ein Wert von z.B. 7.680 x 4.320 bezieht. Wenn diese Pixel auf eine Flache von 100" verteilt sind, dann wäre das eine schlechte Qualität für ein Arbeitsbildschirm, aber auf 42" wäre das sofort gekauft!meisterkatzen schrieb:Na so ein Quatsch, gerade am PC machen 8k Sinn. 8k Retina sind vom Platz her nur ordinäre 4k und das ist ja nicht gerade viel.
Am TV machen 8k bei den aktuellen Größen nicht viel Sinn. Wir haben 75" 8k und da sieht man ab 2m kaum einen Unterschied. Ab 100" sieht das ganze aber vielleicht anders aus, gibts aber noch nicht
SO! Und dann erst ist es interessant wie groß dein Display-Desktop ist! Gerne dann auch mit 120Hz+, aber bitte nicht mehr solch einen Einheitsbrei von nur 4K.
Zuletzt bearbeitet:
KitKat::new()
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.869
Du vergisst, dass der Sitzabstand auch noch wichtig ist.Zoldan schrieb:Wenn man das einmal verstanden hat, dann braucht man auch nicht mit Pixel-Zahlen um sich werfen, weil man ansonsten immer noch dazu wissen muss, auf was für eine Diagonale sich ein Wert von z.B. 7.680 x 4.320 bezieht. Wenn diese Pixel auf eine Flache von 100" verteilt sind, dann wäre das eine schlechte Qualität für ein Arbeitsbildschirm, aber auf 42" wäre das sofort gekauft!