News DisplayPort 2.0: Dreifache Datenrate für 8K-Displays

So ein unnötiger Kommentar
 
  • Gefällt mir
Reaktionen: LukS, Worker151 und JackTheRippchen
Einzeiler sind Argumentativ immer dünn und Zeugen von schlechtem Stil :rolleyes: aber für FHD magst du recht haben. Die Sache ist halt dass FHD nicht mehr die Technikspitze ist. Und für alte Technik braucht man keine moderne Übertragung. Damit ist man an seinem persönlichen Tellerrand ankommen und darf sich raussuchen ob man einen Blick riskiert, wieder in seine blase zurückkehrt oder gar drüber hüpft und sich in andere Leute hinein versetzt. :daumen:

Ich für meinen Teil sehe hier ein schönes Stück Technik und frage mich eigentlich nur wie lang so ein Kabel sein darf bis die Überzeugungsrate einbricht.
 
  • Gefällt mir
Reaktionen: new Account()
  • Gefällt mir
Reaktionen: new Account()
Rickmer schrieb:
Die "passenden Anschlusskabel" sind meiner Erfahrung nach gerne zu kurz...

Es wurde offensichtlich an reduziertem Overhead gearbeitet, aber was hat man noch gemacht, um die rohe Bitrate auf 250% zu steigern?
Nope. Versuch mal 80 Gbit/s über USB zu schicken.

Man sollte nie nie sagen. ;)

Bei TB3 arbeitet jede der 2 Lanes mit 20 GBit/s in Summe 40 GBit/s. Und in die andere Richtung das gleiche nochmal. Also 40 GBit/s je Richtung. Gleichzeitig.

Im alternate Mode DP werden aber alle 4 physisch im USBC-USBC Kabel vorhandenen Lanes vom Computer zum Display betrieben. Mithin 80 GBit/s. Und die nutzt DP mit 20 GBit/s je Lane jetzt (äh 2020) einfach aus.

Damit könnte man erwarten das ein TB3 fähiges Kabel (ja die kurzen, dicken, starren, teuren) auch dieses neue DP Format kann. Wieviel Sinn ein solches 1m Kabel für einen Displayanschluß macht mag dahingestellt sein. Selbst wenn's vielleicht Wege gibt das auf 1.8m zu steigern .. Meine aktuellen Displaykabel sind jedenfalls länger und sie sind auch ein paar mal um die Ecke gebogen .. mit weniger als 10cm(?) Radius.

Aber bis 2020 ist ja noch etwas Zeit da wird ja wohl vorher noch USB4 aus der Taufe gehoben .. VIelleicht ja auch endlich die Definition eines optischen USB Steckers und der industrieeinheitlichen PHY Parameter .. (Kicher - wenn man sich den Wust der konkurrierenden optischen Übertragunsparameter bei QFSP basierten Transceivern (100G und so) ansieht .. Cisco,Juniper,Arista,Brocade,HPE,H3C,Dell,Extreme,Ubiquiti,Intel,.. jeder mit seinem eigenen .. das wird was werden ..)

Aber das Zeitfenster für USB/Intel mit was optischem, und hinreichend Schnellem - ab 2020 dann halt diese 80 GBit/s (je Richtung statt der heutigen 40 natürlich), in die Pushen zu kommen - bevor das gerad so schön vereinheitlichte USB4/TB3 (bis auf Netzwerk) wieder auseinanderfällt - läuft langsam ab .. Aber die Definition eines endlich kompressionsfreien 8k Formats mit erhöhter Refreshrate und HDM für Monitore war wohl schon lange so was von überfällig ..


Ergänzung ()

Crass Spektakel schrieb:
Darüber möchte ich bitteschön Rechner vernetzen. 77GBit reichen eine Weile :-)
Jajajaja. ;) Erfordert aber irgendwie endlich den Übergang auf optische Übertragung für USB. Mit 1m Kabeln (je 50€) ist Networking selbst bei Verfügbarkeit von USB4-Hubs nicht so lustig. Und ich mach sogar Kompromisse !! Ich hätte (im privaten Bereich) nicht mal was gegen HUBbing sprich superbilllige optische Splitter/Adder statt superteurer optischer Switches für den ganzen Haushalt einzuwenden .. (Sprich man kann nicht 3x 77G Verbindungen gleichzeitig sondern "nur" ne Summenrate von 77G .. also nur 1x77 oder 2x37G oder 3x 25G .. gleichzeitig - dafür braucht aber auch nur einen der noch recht teuren Transceiver je Netzwerkgerät (geschätzt heute 25€/10G für prof.T.) ..) Selbst wenn USB4 sicher erst bei den 40G bleibt - auch ne 40G Summenrate wär als Netzwerk schon ein "gewisser" Fortschritt - und die Transceiver wären bezahlbarer ..
 
Zuletzt bearbeitet:
War es nicht so das Displayport und HDMI nur bis 60hz ausgeben können? Oder warum benutze ich nochmal DVI für meinen 144hz Monitor? 🤔
 
Ma®tin schrieb:
War es nicht so das Displayport und HDMI nur bis 60hz ausgeben können? Oder warum benutze ich nochmal DVI für meinen 144hz Monitor? 🤔
Nein das stimmt so nicht. HDMI und DP sind gut in der Lage mehr als 60 Hz auszugeben. Das klingt so als war das vor vielen Jahren mal so. :D sicher weiß ich es aber nicht. Sicher ist nur dass definitiv mehr als 60 geht und das schon sehr sehr lange
 
silentdragon95 schrieb:
Das einzige, was mich etwas nervt, ist dass man nicht mehr einfach so den Bildschirm ausschalten kann, wenn man den Arbeitsplatz verlässt der Rechner merkt das, und Windows haut dann alles inklusive der Desktop-Icons durcheinander,
Abhängig vom Monitor und der verbauten Plug'n'Play Funktion. Beim AOC 3279 kann ich das auf allen vier Eingängen machen und sogar den Monitor abstecken und wieder anschließen. Beim getesteten Samsung funktionierte das nicht mal im Standby um alles in eine Ecke zu werfen. Dann scheint es auch aus den Erfahrungsberichten zwischen nvidia und AMD Unterschiede bei der Monitorhandhabung Unterschiede geben.
 
DisplayPort sollte auch HDMI in der TV Welt ersetzen was leider nicht der Fall ist.
HDMI gurkt immer hinterher.

Das niemand 8K und eigentlich auch 4K braucht ist nen anderes Thema da die Festplatten nicht im Ansatz mitgewachsen sind was Storage/Preis anbelangt seit den 4er damals für unter 150 Teuronen .......
 
Ma®tin schrieb:
War es nicht so das Displayport und HDMI nur bis 60hz ausgeben können? Oder warum benutze ich nochmal DVI für meinen 144hz Monitor? 🤔

Die Aussage haut so nicht hin. Welches HDMI? Bis 2.0 tatsächlich nur 60 Hz, und 4k davor auch nur bis 30 Hz. 21. kann auch 120 Hz. DP kann schon lange deutlich mehr...
 
flug_rosetto schrieb:
wer brauch 8k??????????
Enthusiasten und andere Freunde von Displays mit sehr hoher Auflösung.
Es gibt nicht nur Spiele oder Videomaterial. Wenn ich viele Informationen parallel darstellen möchte (z.B. an einem Prüf- oder Leitstand), wäre ich einem so hochauflösenden Display nicht abgeneigt.
 
Zuletzt bearbeitet von einem Moderator:
Kamikazedoc schrieb:
Enthusiasten und andere Freunde von Displays mit sehr hoher Auflösung.
Es gibt nicht nur Spiele oder Videomaterial. Wenn ich viele Informationen parallel darstellen möchte (z.B. an einem Prüf- oder Leitstand), wäre ich einem so hochauflösenden Display nicht abgeneigt.
Dito. Bin jetzt seit mehr als 10J privat mit einem 2.5k 27" und einem Zweitmonitor für hinreichende Fensterfläche am Schreibtisch, und langsam fängt das Ding doch an zu schwächeln. Außerdem ist das Fliegengitter (sichtbare Pixelstruktur in Bildern und Textrandschärfe) wirklich nicht mehr zeitgemäß. Da überlegt man schon beide Monitore durch vielleicht nur Einen etwas größeren mit etwas mit höherer Auflösung zu ersetzen .. wenn's denn etwas gäbe. 1x4k bei auch wieder 27" könnens eher nicht sein. Mehr als 27" verbietet sich bei 4k weil man dann wieder Fliegengitter hat. 5k ist auch wieder nur 27" .. Letztlich wär 8k 40" ne gute Lösung, allerdings könnte es etwas wie 6k3k 32" vielleicht auch tun .. und von praktisch allen heute verkauften Graphiklösungen, inkl. Prozessorinternen GPUs und Displayports per Treiberupdate Unterstützung finden. Würd ja gern mal was Neues kaufen .. aber jedes Apple Update in letzter Zeit ist irgendwie nicht für mich gemacht ..
 
Zuletzt bearbeitet:
senf.dazu schrieb:
auch ne 40G Summenrate wär als Netzwerk schon ein "gewisser" Fortschritt - und die Transceiver wären bezahlbarer ..

Das das ist noch eine Sache die mir fehlt: flottes Ethernet über USB. Jeder Krümmelkackrechner hat heute 10GBit-USB. Wo aber gibt es 10Gbit Ethernet-USB? Ich würde mir heute nur noch sehr ungerne eine PCIE-Karte für etwas einbauen was über USB genau so gut läuft.

Und mal ehrlich, 10GBit Ethernet ist auch schon wieder zu wenig wenn man flote M2-SSDs betreibt. Ich werde direkt von 2,5GBit Fiber-Channel (hab vor Jahren mal passende Infrastruktur geschenkt bekommen) zu 25GBit-Ethernet wechseln.

40GBit-Ethernet ist nicht das was man braucht, denn 40Gbit Ethernet sind eigentlich vier kombinierte 10Gbit-Verbindungen, d.h. die maximale Leistung eines Kanals beträgt 10Gbit. Zu meiner Verwunderung sieht man sogar unter Linux vier getrennte Devices obwohl alles über ein Kabel läuft.

25Gbit-Karten gibt es ab 220 Euro. Um zwei Rechner direkt zu verbinden gibt es nichts besseres.
 
Crass Spektakel schrieb:
Das das ist noch eine Sache die mir fehlt: flottes Ethernet über USB. Jeder Krümmelkackrechner hat heute 10GBit-USB. Wo aber gibt es 10Gbit Ethernet-USB? Ich würde mir heute nur noch sehr ungerne eine PCIE-Karte für etwas einbauen was über USB genau so gut läuft.

Und mal ehrlich, 10GBit Ethernet ist auch schon wieder zu wenig wenn man flote M2-SSDs betreibt. Ich werde direkt von 2,5GBit Fiber-Channel (hab vor Jahren mal passende Infrastruktur geschenkt bekommen) zu 25GBit-Ethernet wechseln.

40GBit-Ethernet ist nicht das was man braucht, denn 40Gbit Ethernet sind eigentlich vier kombinierte 10Gbit-Verbindungen, d.h. die maximale Leistung eines Kanals beträgt 10Gbit. Zu meiner Verwunderung sieht man sogar unter Linux vier getrennte Devices obwohl alles über ein Kabel läuft.

25Gbit-Karten gibt es ab 220 Euro. Um zwei Rechner direkt zu verbinden gibt es nichts besseres.
Doch ? Vielleicht ne USB-C Direktverbdinung PC zu PC ? Wär zumindest ne (wohl) bereits heute mögliche Alternative. Aber möglicherweise hätten beide das gleiche Problem - die herkömmliche TCP-IP API und Stack. Die für solche Geschwindigkeiten einfach nicht gestrickt wurden. Intel spricht in den TB3 Präsentationsfolien für solche TB3 Direktverbindungen von 10 GB/s Level - möglicherweise genau deswegen. Obwohl TB3 an sich 40G hergibt, die typ. PCIe Anbindung mit 4 Lanes 32G brutto. Bei HPC/Parallelrechner sind wohl nicht umsonst Infiniband/Omnipath auf dem Vormarsch (und da kann ich nicht bestätigen das 10/20/40/56/100G Adapter in mehrere logische Schnittstellen geteilt werden - mit der RDMA API ist's kein Problem Speicher-Speicher (lokal <-> remote - user space) Transfers hinreichend großer Blöcke die Schnittstelle mit ihrer Rate auszulasten). Aber auch für Ethernet gibt's wohl schnellere Stacks - mit geänderter API. Und mannigfaltige Spielarten von RDMA via Ethernet bzw. (TCP)IP. Aber soweit ich das verstehe bedeuten alle technisch den Bypass des alten TCP Stacks.

Also wie auch immer mit Netzwerkverbindung ab vielleicht etwa 10G kann's sein das man ne neue Treiberarchitektur und Anwender- und Systemsoftware die die neuen APIs auch nutzt braucht .. Da ist möglicherweise bei der Einführung von USB4/5 Networking (wenn's denn irgendwann mal passiert) noch wesentlich mehr Arbeit im Busch als "nur" die Transceiver, Stecker, Kabel und Hubs? ..

Das wär sicher anders wenn die CPU-Core Taktraten nicht irgendwann bei 4G ihr "natürliches" Ende gefunden hätten ..

Ich kann ja auch nur vermuten warum eine Aufteilung der 40G bei Unix passiert - aber gesetzt den Fall man hat eine TCP bedingte Limitation auf 10G - dann könnte man z.B. von einem Standard-Dateikopierer die Generation vieler Threads erwarten - die sich schön auf z.B. 4 cores verteilen und die logische Aufteilung bewirkt das auch die TCP Stacks sich auf verschieden Cores verteilen und man trotz ungeänderter Software vielleicht doch einen Dateibaum mit 40G kopieren kann. Aber natürlich kann's auch gut ne Hardwaregegebenheit sein - ich denke es gibt "passive" Kabeladapter die aus einer 40G Ethernet 4 10G machen (QFSP <-> 4x SFP legt solche Lösungen nahe - und 40G Ethernet gäb's sonst vielleicht auch gar nicht neben den üblichen 10M/100M/1G/10G/100G .. und übrigens 100G QFSP <-> 25G SFP ..) - dann muß die Software halt nachziehen.
 
Zuletzt bearbeitet:
Crass Spektakel schrieb:
Das das ist noch eine Sache die mir fehlt: flottes Ethernet über USB. Jeder Krümmelkackrechner hat heute 10GBit-USB. Wo aber gibt es 10Gbit Ethernet-USB? Ich würde mir heute nur noch sehr ungerne eine PCIE-Karte für etwas einbauen was über USB genau so gut läuft.

Und mal ehrlich, 10GBit Ethernet ist auch schon wieder zu wenig wenn man flote M2-SSDs betreibt. Ich werde direkt von 2,5GBit Fiber-Channel (hab vor Jahren mal passende Infrastruktur geschenkt bekommen) zu 25GBit-Ethernet wechseln.

40GBit-Ethernet ist nicht das was man braucht, denn 40Gbit Ethernet sind eigentlich vier kombinierte 10Gbit-Verbindungen, d.h. die maximale Leistung eines Kanals beträgt 10Gbit. Zu meiner Verwunderung sieht man sogar unter Linux vier getrennte Devices obwohl alles über ein Kabel läuft.

25Gbit-Karten gibt es ab 220 Euro. Um zwei Rechner direkt zu verbinden gibt es nichts besseres.

Welche Anwendungen hast du, bei denen du das brauchst?
 
Worker151 schrieb:
Welche Anwendungen hast du, bei denen du das brauchst?
Oh je - gibt's außer Deutschland Internet noch irgendeine Anwendung die mit 1GbE auskommt ? Und selbst das wird diese Grenze bald sprengen nachdem es jetzt 1G Anschlüsse für Endverbraucher gibt. Irgendwie ist Netzwerk das eigentlich mal der Universaltransport für alles war zum Internet Zubringer verkommen .. Selbst WLAN und Mobile fängt an inzwischen schneller zu sein (wenn auch mit Tücken) .. Und man trägt halt wieder USB-Sticks bzw. USB-SSDs von Rechner zu Rechner .. oder schickt sie per Post.

Aber hast recht eigentlich kein Problem - das Kopieren auf ein SSD dauert auch ein paar Minuten - das Weitertragen ist demgegenüber in Nullkommanix erledigt .. kann man ggf auch durch Industrieroboter automatisieren. Und für die Gruppenarbeit kann man dann auch gut ne Rohrpost zum Server einrichten.
 
Zuletzt bearbeitet:
@ComputerBase: die letzten Jahre vorgestellte Laptops verwenden ja ganz gerne USB-C Stecker auch für DP. Ist dieser Stecker in der Lage, DP2.0 (80Gb/s) zu übertragen?

n3m0 schrieb:
USB-C solls sein, sonst nichts!
+1

hahah132 schrieb:
Tolle Entwicklung, dennoch hoffe ich inständig, dass sich alles auf Thunderbolt/USB4 konzentrieren wird, so wie bei den aktuellen Macbooks. Es ist einfach unglaublich genial, einen Stecker nicht mehr falsch einstecken zu können,
+1

hahah132 schrieb:
theoretisch das Gerät über den selben Stecker laden zu können ...
Was nützt Dir theoretisch? Das ist doch genau die Crux bei USB-C - die wenigstens Implementationen erlauben doch wirklich alle 4 Modi.
Was_denn schrieb:
HDMI ist auch mangelhaft war die Auflösung betrifft . Aber funktioniert dafür in der Regel einwandfrei .
Das stimmt leider genau so wenig wie bei DP. Meine Erfahrungen mit DP sind sogar eher besser als die bei HDMI. Spätestens seit HDMI 2.0 muss man sehr darauf achten was für HDMI-Kabel man kauft. Musste da einiges Lehrgeld bezahlen :mad:

Herdware schrieb:
Unterm Strich würde ich USB-Typ C bevorzugen, wegen der besseren Handhabung (beim Monitoranschluss eher weniger wichtig), aber vor allem zwecks Vereinheitlichung.
Nicht nur wegen der Vereinheitlichung - er ist auch kleiner und spart so Platz am Rechner / Laptop / GraKa.

Faultier schrieb:
Das niemand 8K und eigentlich auch 4K braucht ist nen anderes Thema da die Festplatten nicht im Ansatz mitgewachsen sind was Storage/Preis anbelangt seit den 4er damals für unter 150 Teuronen .......

flug_rosetto schrieb:
wer brauch 8k??????????
+1

8K braucht echt niemand, das kann mir keiner erzählen. Ist ungefähr genau so sinnvoll wie Autos mit über 500 PS.

4K finde ich aber durchaus noch sinnvoll, wenn man einen sehr großen Desktop will / braucht, oder gerne gesichtsfeldfüllendes Video schaut (Heimkino).

Viel wichtiger als immer höhere Auflösungen in der Fläche bei weiterhin steinzeitlichen Framerates fände ich höhere zeitliche Auflösung, sprich höhere Framerates, damit endlich auch schnelle Bewegungen scharf wiedergegeben werden. 4K @ 30p ist eigentlich ziemlich gaga, wenn man nicht nur statische oder extrem langsam bewegte Motive filmt. 60p finde ich ein absolutes Minimum, besser wären aber 120 oder 200 fps.

Solch hohe Framerates ergeben natürlich entsprechend hohe Datenraten, z.B. errechnen sich bei UHD Auflösung mit 200 fps und 10 bit Farbtiefe 50Gb/s. Mit 12 bit wären es schon 60 Gb/s, will man 3D braucht man gleich nochmal doppelt so viel - da reicht DP 2.0 dann schon wieder nicht mehr.

Naja 120 fps wären für's erste ja auch schon nett ... :freaky:

Jedenfalls zeigt das Beispiel dass die neue Schnittstelle durchaus sinnvoll ist, auch ganz ohne 8K.

Und sage keiner dass 3D niemand mehr interessiert... das nächste 3D Revival kommt so sicher wie das Amen in der Kirche.
 
Zuletzt bearbeitet:
Schaut man sich die Einsatzmoeglichkeiten an, ist die Reserve nicht gerade ueppig, Engpaesse also schon wieder absehbar...
 
senf.dazu schrieb:
Oh je - gibt's außer Deutschland Internet noch irgendeine Anwendung die mit 1GbE auskommt ? Und selbst das wird diese Grenze bald sprengen nachdem es jetzt 1G Anschlüsse für Endverbraucher gibt. Irgendwie ist Netzwerk das eigentlich mal der Universaltransport für alles war zum Internet Zubringer verkommen .. Selbst WLAN und Mobile fängt an inzwischen schneller zu sein (wenn auch mit Tücken) .. Und man trägt halt wieder USB-Sticks bzw. USB-SSDs von Rechner zu Rechner .. oder schickt sie per Post.

Aber hast recht eigentlich kein Problem - das Kopieren auf ein SSD dauert auch ein paar Minuten - das Weitertragen ist demgegenüber in Nullkommanix erledigt .. kann man ggf auch durch Industrieroboter automatisieren. Und für die Gruppenarbeit kann man dann auch gut ne Rohrpost zum Server einrichten.

Meine Frage war schon ernst gemeint, wo gibt es solche Datenmengen? Außer 4K Filmen fällt mir jetzt auf die Schnelle nichts ein, selbst umfangreiche Fotobibliotheken brauchen doch meistens nicht die Datenrate. Die meisten Privatanwender haben also vielleicht nicht den Bedarf?

Wobei ich auch noch an einer 16 MBit/s DSL Leitung hänge, bin wohl nicht auf der Höhe der Zeit :-(
 
Zurück
Oben