Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News DisplayPort 2.0: Wegen Pandemie erste Produkte erst später im Jahr
- Ersteller MichaG
- Erstellt am
- Zur News: DisplayPort 2.0: Wegen Pandemie erste Produkte erst später im Jahr
Moep89
Admiral
- Registriert
- Jan. 2008
- Beiträge
- 8.100
Zum einen hat das mit Ungeduld nichts zu tun. Wenn man bestimmte Auflösungen, Farbtiefen und Bildwiederholraten auf einem Display darstellen will, aber es keinen Anschluss gibt, der das kann, dann ist das Display für'n Arsch. HDMI 2.1 und DP 2.0 sind/waren einfach dringend nötig und zwar schon länger. 8K steht vor der Tür und bis vor kurzem konnte HDMI nichtmal UHD in HDR mit 60 Hz. (Subsampling ist eine Krücke und zählt nicht). HDMI 2.1 kann kein 8K mit HDR in 60 Hz ohne verlustbehaftete Kompression. Und HDMI 2.1 kommt gerade erst gaaanz langsam im Markt an. Bis da der Nachfolger kommt, dauert es vermutlich noch Jahre.Marflowah schrieb:Dennoch: Meinst du nicht, dass deine Ungeduld nach ständigen Neuerungen die Fehler, die du beklagst, letztlich bedingen?
Zum anderen bedingt MEINE Ansicht sicherlich nirgendwo irgendwelche Fehler. Die machen die Leute vom HDMI Forum schon ganz alleine.
Und anders rum ist es besser? Es gibt immer einen, der vorher dran ist.aappleaday schrieb:Monitore kommen also bald mit DP 2.0, aber Grafikkarten werden es wohl erst zur nächsten Generation liefern?
Lach, wie geil!
anappleaday
Banned
- Registriert
- Okt. 2020
- Beiträge
- 2.206
Monitore kommen ständig auf dem Markt und DP 2.0 ist da schnell verbaut.GroMag schrieb:Und anders rum ist es besser? Es gibt immer einen, der vorher dran ist.
Eine neue Graka Generation kommt alle Jahre raus.
Also ja, natürlich ist es besser wenn die Graka die Schnittstelle als erstes hat. Ist das eine Fangfrage?
Hayda Ministral
Banned
- Registriert
- Nov. 2017
- Beiträge
- 7.835
77 Gbit/s? Ist schonmal jemand (ggf. auch zum Ende des März hin ) auf die Idee gekommen, Displayport als Netzwerkschnittstelle zu mißbrauchen?
begin_prog
Banned
- Registriert
- Mai 2014
- Beiträge
- 927
Aber wer soll da einen Unterschied sehen? (Wenn es nicht gerade ein wetterfühliger Mensch bei Vollmond ist).Cool Master schrieb:durchaus denkbar, dass man 240 Hz UHD Panels bekommt.
Zuletzt bearbeitet:
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.542
@begin_prog
Anschauen:
Anschauen:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Marflowah
Lt. Commander
- Registriert
- März 2018
- Beiträge
- 1.541
@Moep89 Ich denke du wusstest, daß du natürlich nicht persönlich als Einzelperson gemeint warst (was ja auch nicht sein kann, ist ja logisch).
Die Jagd nach ständigen Neuerungen in immer kürzeren Zeitabständen hast du aber dennoch nochmal bestätigt. "8K steht vor der Tür", aha, und wir können sicher sein, daß 8K eine noch kürzere Lebensdauer haben wird als zuvor 4K. Nicht weil 8K lächerlich wenig ist, sondern weil es, sobald es irgendwie am Markt ist, schon wieder nach mehr gerufen wird, und das bitte plötzlich.
Selbstverständlich ruft das immer mehr technische und konzeptionelle Fehler hervor. Es gibt ja keine Zeit mehr, irgendwas mal langfristig zu durchdenken oder technische Fehler, wie du sie jetzt beklagen musst, schon im Konzept her zu vermeiden. Das ist der Grund warum mich das nicht wirklich wundert.
Schnell schnell schnell, 16K ist auch schon im Anmarsch.
Die Jagd nach ständigen Neuerungen in immer kürzeren Zeitabständen hast du aber dennoch nochmal bestätigt. "8K steht vor der Tür", aha, und wir können sicher sein, daß 8K eine noch kürzere Lebensdauer haben wird als zuvor 4K. Nicht weil 8K lächerlich wenig ist, sondern weil es, sobald es irgendwie am Markt ist, schon wieder nach mehr gerufen wird, und das bitte plötzlich.
Selbstverständlich ruft das immer mehr technische und konzeptionelle Fehler hervor. Es gibt ja keine Zeit mehr, irgendwas mal langfristig zu durchdenken oder technische Fehler, wie du sie jetzt beklagen musst, schon im Konzept her zu vermeiden. Das ist der Grund warum mich das nicht wirklich wundert.
Schnell schnell schnell, 16K ist auch schon im Anmarsch.
Moep89
Admiral
- Registriert
- Jan. 2008
- Beiträge
- 8.100
@Marflowah Ich bezweifle stark, dass es am "Zeitdruck" durch Innovationen liegt. Die Standards haben schon verdammt lange gebraucht. Es dürfte eher am Hickhack liegen, weil jeder irgendwas anderes will. Bis man sich da einig ist dauert es schon ewig und dann wird es wegen der vielen Wünsche unnötig komplex. Zig Modi irgendeine Funktion umzusetzen, von denen dann der ein oder andere nicht sauber umgesetzt wurde. Siehe HDMI Bug bzgl. der X-Box.
Höhere Auflösungen dürften so langsam ihren "Reiz" verlieren. UHD ist schon recht hoch, 8K nochmal ein extremer Schritt. Das wird so schnell gar nicht berechenbar sein um es effektiv zu nutzen. Abgesehen von der nötigen Bandbreite bzw. der noch nicht in Sicht befindlichen Datenträger bzw. Quellen. UHD-BDs kommen schon auf bis zu 100 MBit/s. 8K legt da auch mit neuen Codecs ne große Schippe drauf. Von 16K brauchen wir gar nicht zu reden. Viel mehr rücken andere Features in den Vordergrund. Komfortfunktionen wie VRR und nennenswerte Bildvorteile wie HDR, Und auch da ist es weniger die ständige, echte Neuerung sondern eher der Formatkrieg. HDR10, HDR10+, DV, HLG usw. Würden sich die Verantwortlichen auf 1-2 Standards einigen, bräuchte es nicht ständig neue Geräte bzw. andere Geräte weil Hersteller X nur Standard Y unterstützt.
Höhere Auflösungen dürften so langsam ihren "Reiz" verlieren. UHD ist schon recht hoch, 8K nochmal ein extremer Schritt. Das wird so schnell gar nicht berechenbar sein um es effektiv zu nutzen. Abgesehen von der nötigen Bandbreite bzw. der noch nicht in Sicht befindlichen Datenträger bzw. Quellen. UHD-BDs kommen schon auf bis zu 100 MBit/s. 8K legt da auch mit neuen Codecs ne große Schippe drauf. Von 16K brauchen wir gar nicht zu reden. Viel mehr rücken andere Features in den Vordergrund. Komfortfunktionen wie VRR und nennenswerte Bildvorteile wie HDR, Und auch da ist es weniger die ständige, echte Neuerung sondern eher der Formatkrieg. HDR10, HDR10+, DV, HLG usw. Würden sich die Verantwortlichen auf 1-2 Standards einigen, bräuchte es nicht ständig neue Geräte bzw. andere Geräte weil Hersteller X nur Standard Y unterstützt.
begin_prog
Banned
- Registriert
- Mai 2014
- Beiträge
- 927
Hat er gar nicht.florian. schrieb:Du Kritisierst also gerade ganz allgemein jeglichen technischen Fortschritt?
DrSeltsam95
Lt. Commander
- Registriert
- Jan. 2019
- Beiträge
- 1.315
Hayda Ministral schrieb:77 Gbit/s? Ist schonmal jemand (ggf. auch zum Ende des März hin ) auf die Idee gekommen, Displayport als Netzwerkschnittstelle zu mißbrauchen?
Wird wohl kein Zufall sein, dass man damals den MiniDP-Stecker für Thunderbolt 1+2 genommen hat
Umgekehrt hat mans ja auch schon gemacht, HDBaseT:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.430
aappleaday schrieb:Monitore kommen also bald mit DP 2.0, aber Grafikkarten werden es wohl erst zur nächsten Generation liefern?
Naja, denkbar waere eine nVidia RTX Ampere "Super" Refresh-Generation mit DP2.0 schon in 2021 (bei AMD/RTG gehe ich vom RDNA3 Marktstart erst in 2022 aus und Verfuegbarkeit in Abhaengigkeit auch von der Mining-Boom Entwicklung, nicht nur der Pandemie), nur abseits einer RTX 3080(Ti) "Super" und einer RTX 3090 "Super" wohl eher wenig sinnvoll und selbst wenn man auf diese Modelle spekuliert, laesst sich ueber den Mehrwert wohl trefflich streiten.
Ja, das waere schon irgendwie verkehrte Welt, dass urploetzlich die Grafikkarten den Monitoren bei Entwicklungsmerkmalen (wie dem DP2.0 Port) hinterher hinken koennten, da die Monitorhersteller da i.d.R. in den letzten Jahren kaum mit (fuer viele den Anspruechen) passenden/genuegenden Modellen hinterher gekommen sind im Gaming-Bereich.
lanse
Lieutenant
- Registriert
- Aug. 2018
- Beiträge
- 627
Du verwechselt da offensichtlich was und scheinst an Video zu denken: Videokompression (H.26x, AV1, …) und DSC sind völlig unterschiedliche Dinge.Faust II schrieb:Der Sprung auf 2.0 erlaubt unkomprimiertes 8K Material. Aber da wären wir bei den Sonderfällen, unkomprimiert wird kaum verwendet, erst recht nicht im Endkunden-Bereich. Uninteressant.
Der Monitor empfängt kein per Videokompression kodiertes Signal. Der Videostream wird vorher dekodiert (z. B. vom Intel-QSV-De-/Kodierer) und liegt im Framebuffer immer unkomprimiert vor.
DSC komprimiert den Framebuffer "in Echtzeit", um Bandbreite zu sparen. Der Monitor dekomprimiert das Signal dann wieder. Hab's noch nicht selbst gesehen, aber die Tests der neuen, entsprechend ausgestatteten ASUS-Monitore berichten von sichtbaren Artefakten, wenn DSC verwendet wird, die nur bei Bewegtbild kaum auffallen. Dazu kommt die Latenz durch die "Echtzeit"-De-/Kompression, die sich natürlich nicht völlig eliminieren lässt. DSC ist also nur für (Latenz-unempfindliche) Gamer geeignet, nicht für Creator.
Apple hat beim Pro Display XDR schon jetzt Tricks jenseits des Standards anwenden müssen, um 6K&4:4:4&HDR10@60Hz mit einem Thunderbolt-3-Kabel und - selbstverständlich - ohne DSC zu ermöglichen.
DisplayPort 2.0 hat also durchaus - auch heute schon - seine Berechtigung, und mein nächster Monitor / meine nächste GPU müssen das können, ein digitales Bild mit DSC wieder verschlechtern (und verzögern) … nö danke.
Netzwerk(, USB, Thunderbolt): Vollduplex - DisplayPort: Simplex (also 4x TX statt 2x TX + 2x RX)Hayda Ministral schrieb:77 Gbit/s? Ist schonmal jemand (ggf. auch zum Ende des März hin ) auf die Idee gekommen, Displayport als Netzwerkschnittstelle zu mißbrauchen?
Der Monitor muss ja für die Bildwiedergabe nur empfangen, nicht senden. DDC läuft über gesonderte Non-High-Speed-Signalleitungen und Pins (AUX).
Deshalb sind übrigens auch die Anforderungen von DisplayPort 2.0 an das Kabel nicht höher als die von USB4 / Thunderbolt 3. Noch ein Grund mehr, dass sich der neue Standard schnell etablieren sollte.
Zuletzt bearbeitet:
Marflowah
Lt. Commander
- Registriert
- März 2018
- Beiträge
- 1.541
@Moep89 Konsortien bemühen sich um eine Zusammenführung von Ideen und Standards in diesem Bereich von verschiedenen Konzernen und anderen Ideengebern. Es kann aber gar nicht anders laufen, als es jetzt läuft, da auch diese Konsortien keine Wohlfahrtsvereine sind. Und die Ideengeber und Konzerne noch weniger. Jeder will da seinen Willen durchsetzen. Das muss man im Hinterkopf behalten. Wie du sagst:
Und wenn man dann auch noch Fehlerfreiheit und Qualität erwartet, braucht es noch länger. Der Spruch "Gut Ding will Weile haben" ist kein alter vertrockneter Spruch aus dem vorigen Jahrtausend. Er hat heute genauso Bestand.Moep89 schrieb:Es dürfte eher am Hickhack liegen, weil jeder irgendwas anderes will. Bis man sich da einig ist dauert es schon ewig und dann wird es wegen der vielen Wünsche unnötig komplex.
🤦♂️Glückwunsch, du hast entweder nicht richtig gelesen oder das gelesene nicht verstanden. Versuch's nochmal.florian. schrieb:Du Kritisierst also gerade ganz allgemein jeglichen technischen Fortschritt?
Nice!
HDReady 720i reicht vollkommen!
anappleaday
Banned
- Registriert
- Okt. 2020
- Beiträge
- 2.206
Und genau das wollte ich damit ausdrücken, völlig gaga was da jetzt passiert, aber auch sehr erheiternd 😂Chismon schrieb:.Ja, das waere schon irgendwie verkehrte Welt, dass urploetzlich die Grafikkarten den Monitoren bei Entwicklungsmerkmalen (wie dem DP2.0 Port) hinterher hinken koennten, da die Monitorhersteller da i.d.R. in den letzten Jahren kaum mit (fuer viele den Anspruechen) passenden/genuegenden Modellen hinterher gekommen sind im Gaming-Bereich.
nr-Thunder
Commodore
- Registriert
- Sep. 2009
- Beiträge
- 4.536
Langfristig für VR. Für die Pimax 8kx ist z.B. DP1.4 das Nadelöhr, weshalb das Display für hohe Bildwiederholungsraten Upscaling verwenden muss. Und das sind noch nicht mal HDR Displays, die bei gleicher Auflösung/Bildwiederholungsrate noch mehr Datendurchsatz benötigen.Faust II schrieb:Das ganze ist komplette Zukunftsmusik. Ich bezweifle eigentlich jetzt schon irgendwelchen Nutzen. Mit DP 1.3 lässt sich bereits 8K übertragen. Was will man also mehr?
Auch kann sich ein neuer Standard auf Kabellänge/-dicke oder sonstige Feature auswirken, um mehr Komfort zu gewährleisten (z.B. hat die G2 einen komplett eigenen Anschluss, der DP+USB+Strom zusammenführt).
Man kann zwar argumentieren, dass eh noch nicht die Leistung da ist, aber was wenn sie da ist? Die Displays um DP1.4 in die Knie zu zwingen existieren schon, wenn dann noch in 5 Jahren die GPUs kommen, wäre es ungünstig wenn man dann noch 5 Jahre auf den Anschluss warten müsste. Wo wären wir heute, wenn man 2010 gesagt hätte ,,FHD mit 60 Hz passt doch eigentlich, HDMI 1.3 kann bleiben".
Zuletzt bearbeitet: