News DisplayPort 2.0: Wegen Pandemie erste Produkte erst später im Jahr

@Haldi hast den G9 oder? Kann man da nicht auch einfach zwei 1.4 Kabel dran Klemmen für 240 Hz Und vollen Farbraum?
 
@Haldi hm okay, war nur so ein Gedanke bei vielen Modellen klappt das ja
 
Marflowah schrieb:
Dennoch: Meinst du nicht, dass deine Ungeduld nach ständigen Neuerungen die Fehler, die du beklagst, letztlich bedingen?
Zum einen hat das mit Ungeduld nichts zu tun. Wenn man bestimmte Auflösungen, Farbtiefen und Bildwiederholraten auf einem Display darstellen will, aber es keinen Anschluss gibt, der das kann, dann ist das Display für'n Arsch. HDMI 2.1 und DP 2.0 sind/waren einfach dringend nötig und zwar schon länger. 8K steht vor der Tür und bis vor kurzem konnte HDMI nichtmal UHD in HDR mit 60 Hz. (Subsampling ist eine Krücke und zählt nicht). HDMI 2.1 kann kein 8K mit HDR in 60 Hz ohne verlustbehaftete Kompression. Und HDMI 2.1 kommt gerade erst gaaanz langsam im Markt an. Bis da der Nachfolger kommt, dauert es vermutlich noch Jahre.
Zum anderen bedingt MEINE Ansicht sicherlich nirgendwo irgendwelche Fehler. Die machen die Leute vom HDMI Forum schon ganz alleine. ;)
 
  • Gefällt mir
Reaktionen: schneeland und Sc0ut3r
aappleaday schrieb:
Monitore kommen also bald mit DP 2.0, aber Grafikkarten werden es wohl erst zur nächsten Generation liefern?

Lach, wie geil!
Und anders rum ist es besser? Es gibt immer einen, der vorher dran ist.
 
  • Gefällt mir
Reaktionen: florian.
GroMag schrieb:
Und anders rum ist es besser? Es gibt immer einen, der vorher dran ist.
Monitore kommen ständig auf dem Markt und DP 2.0 ist da schnell verbaut.
Eine neue Graka Generation kommt alle Jahre raus.

Also ja, natürlich ist es besser wenn die Graka die Schnittstelle als erstes hat. Ist das eine Fangfrage?
 
Cool Master schrieb:
durchaus denkbar, dass man 240 Hz UHD Panels bekommt.
Aber wer soll da einen Unterschied sehen? (Wenn es nicht gerade ein wetterfühliger Mensch bei Vollmond ist).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Faust II und GroMag
@begin_prog

Anschauen:

 
@Moep89 Ich denke du wusstest, daß du natürlich nicht persönlich als Einzelperson gemeint warst (was ja auch nicht sein kann, ist ja logisch). :)
Die Jagd nach ständigen Neuerungen in immer kürzeren Zeitabständen hast du aber dennoch nochmal bestätigt. "8K steht vor der Tür", aha, und wir können sicher sein, daß 8K eine noch kürzere Lebensdauer haben wird als zuvor 4K. Nicht weil 8K lächerlich wenig ist, sondern weil es, sobald es irgendwie am Markt ist, schon wieder nach mehr gerufen wird, und das bitte plötzlich.

Selbstverständlich ruft das immer mehr technische und konzeptionelle Fehler hervor. Es gibt ja keine Zeit mehr, irgendwas mal langfristig zu durchdenken oder technische Fehler, wie du sie jetzt beklagen musst, schon im Konzept her zu vermeiden. Das ist der Grund warum mich das nicht wirklich wundert.
Schnell schnell schnell, 16K ist auch schon im Anmarsch.
 
  • Gefällt mir
Reaktionen: Smartbomb
Du Kritisierst also gerade ganz allgemein jeglichen technischen Fortschritt?
Nice!

HDReady 720i reicht vollkommen!
 
@Marflowah Ich bezweifle stark, dass es am "Zeitdruck" durch Innovationen liegt. Die Standards haben schon verdammt lange gebraucht. Es dürfte eher am Hickhack liegen, weil jeder irgendwas anderes will. Bis man sich da einig ist dauert es schon ewig und dann wird es wegen der vielen Wünsche unnötig komplex. Zig Modi irgendeine Funktion umzusetzen, von denen dann der ein oder andere nicht sauber umgesetzt wurde. Siehe HDMI Bug bzgl. der X-Box.

Höhere Auflösungen dürften so langsam ihren "Reiz" verlieren. UHD ist schon recht hoch, 8K nochmal ein extremer Schritt. Das wird so schnell gar nicht berechenbar sein um es effektiv zu nutzen. Abgesehen von der nötigen Bandbreite bzw. der noch nicht in Sicht befindlichen Datenträger bzw. Quellen. UHD-BDs kommen schon auf bis zu 100 MBit/s. 8K legt da auch mit neuen Codecs ne große Schippe drauf. Von 16K brauchen wir gar nicht zu reden. Viel mehr rücken andere Features in den Vordergrund. Komfortfunktionen wie VRR und nennenswerte Bildvorteile wie HDR, Und auch da ist es weniger die ständige, echte Neuerung sondern eher der Formatkrieg. HDR10, HDR10+, DV, HLG usw. Würden sich die Verantwortlichen auf 1-2 Standards einigen, bräuchte es nicht ständig neue Geräte bzw. andere Geräte weil Hersteller X nur Standard Y unterstützt.
 
  • Gefällt mir
Reaktionen: Smartbomb
Also ich habe hier meinen Monitor mit DVI angeschlossen :daumen:
 
  • Gefällt mir
Reaktionen: Faust II und Smartbomb
Hayda Ministral schrieb:
77 Gbit/s? Ist schonmal jemand (ggf. auch zum Ende des März hin :evillol:) auf die Idee gekommen, Displayport als Netzwerkschnittstelle zu mißbrauchen?

Wird wohl kein Zufall sein, dass man damals den MiniDP-Stecker für Thunderbolt 1+2 genommen hat ;)

Umgekehrt hat mans ja auch schon gemacht, HDBaseT:
 
aappleaday schrieb:
Monitore kommen also bald mit DP 2.0, aber Grafikkarten werden es wohl erst zur nächsten Generation liefern?

Naja, denkbar waere eine nVidia RTX Ampere "Super" Refresh-Generation mit DP2.0 schon in 2021 (bei AMD/RTG gehe ich vom RDNA3 Marktstart erst in 2022 aus und Verfuegbarkeit in Abhaengigkeit auch von der Mining-Boom Entwicklung, nicht nur der Pandemie), nur abseits einer RTX 3080(Ti) "Super" und einer RTX 3090 "Super" wohl eher wenig sinnvoll und selbst wenn man auf diese Modelle spekuliert, laesst sich ueber den Mehrwert wohl trefflich streiten.

Ja, das waere schon irgendwie verkehrte Welt, dass urploetzlich die Grafikkarten den Monitoren bei Entwicklungsmerkmalen (wie dem DP2.0 Port) hinterher hinken koennten, da die Monitorhersteller da i.d.R. in den letzten Jahren kaum mit (fuer viele den Anspruechen) passenden/genuegenden Modellen hinterher gekommen sind im Gaming-Bereich.
 
Faust II schrieb:
Der Sprung auf 2.0 erlaubt unkomprimiertes 8K Material. Aber da wären wir bei den Sonderfällen, unkomprimiert wird kaum verwendet, erst recht nicht im Endkunden-Bereich. Uninteressant.
Du verwechselt da offensichtlich was und scheinst an Video zu denken: Videokompression (H.26x, AV1, …) und DSC sind völlig unterschiedliche Dinge.
Der Monitor empfängt kein per Videokompression kodiertes Signal. Der Videostream wird vorher dekodiert (z. B. vom Intel-QSV-De-/Kodierer) und liegt im Framebuffer immer unkomprimiert vor.
DSC komprimiert den Framebuffer "in Echtzeit", um Bandbreite zu sparen. Der Monitor dekomprimiert das Signal dann wieder. Hab's noch nicht selbst gesehen, aber die Tests der neuen, entsprechend ausgestatteten ASUS-Monitore berichten von sichtbaren Artefakten, wenn DSC verwendet wird, die nur bei Bewegtbild kaum auffallen. Dazu kommt die Latenz durch die "Echtzeit"-De-/Kompression, die sich natürlich nicht völlig eliminieren lässt. DSC ist also nur für (Latenz-unempfindliche) Gamer geeignet, nicht für Creator.
Apple hat beim Pro Display XDR schon jetzt Tricks jenseits des Standards anwenden müssen, um 6K&4:4:4&HDR10@60Hz mit einem Thunderbolt-3-Kabel und - selbstverständlich - ohne DSC zu ermöglichen.
DisplayPort 2.0 hat also durchaus - auch heute schon - seine Berechtigung, und mein nächster Monitor / meine nächste GPU müssen das können, ein digitales Bild mit DSC wieder verschlechtern (und verzögern) … nö danke.

Hayda Ministral schrieb:
77 Gbit/s? Ist schonmal jemand (ggf. auch zum Ende des März hin :evillol:) auf die Idee gekommen, Displayport als Netzwerkschnittstelle zu mißbrauchen?
Netzwerk(, USB, Thunderbolt): Vollduplex - DisplayPort: Simplex (also 4x TX statt 2x TX + 2x RX)
Der Monitor muss ja für die Bildwiedergabe nur empfangen, nicht senden. DDC läuft über gesonderte Non-High-Speed-Signalleitungen und Pins (AUX).
Deshalb sind übrigens auch die Anforderungen von DisplayPort 2.0 an das Kabel nicht höher als die von USB4 / Thunderbolt 3. Noch ein Grund mehr, dass sich der neue Standard schnell etablieren sollte.
 
Zuletzt bearbeitet:
@Moep89 Konsortien bemühen sich um eine Zusammenführung von Ideen und Standards in diesem Bereich von verschiedenen Konzernen und anderen Ideengebern. Es kann aber gar nicht anders laufen, als es jetzt läuft, da auch diese Konsortien keine Wohlfahrtsvereine sind. Und die Ideengeber und Konzerne noch weniger. Jeder will da seinen Willen durchsetzen. Das muss man im Hinterkopf behalten. Wie du sagst:
Moep89 schrieb:
Es dürfte eher am Hickhack liegen, weil jeder irgendwas anderes will. Bis man sich da einig ist dauert es schon ewig und dann wird es wegen der vielen Wünsche unnötig komplex.
Und wenn man dann auch noch Fehlerfreiheit und Qualität erwartet, braucht es noch länger. Der Spruch "Gut Ding will Weile haben" ist kein alter vertrockneter Spruch aus dem vorigen Jahrtausend. Er hat heute genauso Bestand.

florian. schrieb:
Du Kritisierst also gerade ganz allgemein jeglichen technischen Fortschritt?
Nice!

HDReady 720i reicht vollkommen!
🤦‍♂️Glückwunsch, du hast entweder nicht richtig gelesen oder das gelesene nicht verstanden. Versuch's nochmal.
 
  • Gefällt mir
Reaktionen: Smartbomb
Chismon schrieb:
.Ja, das waere schon irgendwie verkehrte Welt, dass urploetzlich die Grafikkarten den Monitoren bei Entwicklungsmerkmalen (wie dem DP2.0 Port) hinterher hinken koennten, da die Monitorhersteller da i.d.R. in den letzten Jahren kaum mit (fuer viele den Anspruechen) passenden/genuegenden Modellen hinterher gekommen sind im Gaming-Bereich.
Und genau das wollte ich damit ausdrücken, völlig gaga was da jetzt passiert, aber auch sehr erheiternd 😂
 
  • Gefällt mir
Reaktionen: Chismon
Faust II schrieb:
Das ganze ist komplette Zukunftsmusik. Ich bezweifle eigentlich jetzt schon irgendwelchen Nutzen. Mit DP 1.3 lässt sich bereits 8K übertragen. Was will man also mehr?
Langfristig für VR. Für die Pimax 8kx ist z.B. DP1.4 das Nadelöhr, weshalb das Display für hohe Bildwiederholungsraten Upscaling verwenden muss. Und das sind noch nicht mal HDR Displays, die bei gleicher Auflösung/Bildwiederholungsrate noch mehr Datendurchsatz benötigen.

Auch kann sich ein neuer Standard auf Kabellänge/-dicke oder sonstige Feature auswirken, um mehr Komfort zu gewährleisten (z.B. hat die G2 einen komplett eigenen Anschluss, der DP+USB+Strom zusammenführt).

Man kann zwar argumentieren, dass eh noch nicht die Leistung da ist, aber was wenn sie da ist? Die Displays um DP1.4 in die Knie zu zwingen existieren schon, wenn dann noch in 5 Jahren die GPUs kommen, wäre es ungünstig wenn man dann noch 5 Jahre auf den Anschluss warten müsste. Wo wären wir heute, wenn man 2010 gesagt hätte ,,FHD mit 60 Hz passt doch eigentlich, HDMI 1.3 kann bleiben".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
Zurück
Oben