News HDMI 2.2: Neuer Standard unterstützt bis zu 96 Gbit/s

Mal sehen, wann da gescheite Kabellängen kommen, mit <1,5m können die wenigsten was anfangen. Aber DP2.1 hat ja das gleiche Problem.
 
Yiasmat schrieb:
Zumal DP auch nur eine Nische im PC Bereich ist und daher für HiFi (TV und Zusatzgeräte) sowas von irrelavant ist da es quasi kein Gerät gibt was einen DP Anschluß besitzt.
Wenn Monitore und Grafikkarten 2 bis 4 verschiedene Anschlüsse haben bzw. hatten, dann sollten Fernseher auch einen DP haben können.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Averomoe schrieb:
Wird das jetzt der eARC-Nachfolger? ^^
eARC wird wohl eher parallel weiterexistieren. Das ist ja der Audio-Rückkanal (vom TV zum AV-Receiver). Hier geht es wohl eher um den generellen Versatz von Bild und Ton aufgrund zu langer Bildberechnungen. Wie das aber die HDMI-Schnittstelle "retten" soll, wenn der Versatz bereits zuvor z.B. im Blu-ray-Player zustande kommt (in der Audio-/Video-Decoding-Einheit)? Dann müsste zuvor ja eine Art definierter Zeitpuffer geschaffen werden und bei jedem Teilbild prüft der Algoritmus, ob dieser Puffer noch Bestand hat und bei Bedarf wird das nächste Bild quasi "übertaktet" decodiert, damit es wieder den Anschluss zum Ton hält. Dafür benötigt es aber Änderungen bei Hard- und Software kommender Geräte.
Ergänzung ()

Termy schrieb:
Keiner braucht einen proprietären Standard mit Lizenz-Willkür und sonstigen Kapriolen, wenn es einen ebenbürtigen freien Standard wie DP gibt - in die Tonne der Geschichte damit, herrgott! :freak:
Was hat der Herrgott damit zu tun? Und nenne mir mal TVs, AVRs und Blu-ray-Player mit Display Port.
Ergänzung ()

Yiasmat schrieb:
Das zwar HDMI 2.1 drauf steht es aber nicht die Features und / oder Datenraten besitzt die angegeben sind. Nur bei HDMI 2.1 Kabeln mit Zertifikat konnte man sich sicher sein auch das zu bekommen was drauf steht und wofür man bezahlt hat. Bei allen anderen kann halt was fehlen.
Das stimmt so auch wieder nicht. Bei HDMI 2.1 gab es anfangs lediglich eine Art "Mindestfunktionalität", die die Geräte intern unterstützen müssen, aber kein verpflichtedes "Gesamtpaket" aller möglichen Funktionen. Somit kann es sein, dass auch das bestzertifizierte HDMI 2.1 Kabel nicht alle Funktionen unterstützt, wenn die Hardware nicht alles kann.
Ergänzung ()

Drakonomikon schrieb:
Ich würde mich mal so gerne mit einem Ingenieur eines führenden Herstellers dieser Kabel unterhalten. Ich habe beruflich mit diesem Thema im Automobilbereich zu tun. Ich bezweifle stark, dass es eine physische Verbesserung oder Veränderung gibt. Ich vermute, man nimmt dasselbe Kabel und misst die S-Parameter einfach in einen noch höheren Frequenzbereich und labelt um.
Bin ebenfalls im Automotive-Sektor unterwegs. Entweder selektiert man nur stärker bestehende Kabel durch härtere Tests, oder man verbessert etwas die Abschirmung der signalführenden Einzellitzen (da ist noch etwas Luft nach oben).

Die Signal-Codierung (Verhältnis von der Anzahl der möglichen Spannungszustände und Nutzbits, die sich daraus ergeben) ändert sich nicht bei Verdopplung der Nettodatenrate? Ich konnte dazu leider nichts finden. Denn dann könnte man u.U. wirklich die alten Kabel weiterverweden, es müssten dann nur alle Endgeräte die neue Codierung unterstützen.
 
Zuletzt bearbeitet:
Weyoun schrieb:
Hier geht es wohl eher um den generellen Versatz von Bild und Ton aufgrund zu langer Bildberechnungen. Wie das aber die HDMI-Schnittstelle "retten" soll, wenn der Versatz bereits zuvor z.B. im Blu-ray-Player zustande kommt (in der Audio-/Video-Decoding-Einheit)?
"Lip Sync" gibt es bereits seit HDMI1.3, darüber melden alle Geräte in der Kette, wie lange sie für das Processing der Daten benötigen und der Zuspieler kann so passend Sound und Video auf den Weg schicken. Mit dem "neuen" Feature kommen hier halt Verbesserungen, welcher Art auch immer ins Spiel.
1736236268442.png


Bei Videos ist es sowieso unproblematisch, schwieriger sieht es hier bei Liveinhalten (Konsole/Gaming) aus, hier kann das Bild nicht mal eben allzu lang verzögert werden. Das ist dann aber kein Problem des Standards, sondern der verarbeitenden Geräte.
 
Zuletzt bearbeitet:
Engaged schrieb:
Naja schau was die Grafik zum Monitor schaufelt, und dann schau was Streaming durch die Leitung schaufelt, da kann doch nur Qualität auf der strecke bleiben oder nicht?

Ja, no shit. Dürfte die meisten, die solche Streaming-Dienste nutzen, überhaupt nicht interessieren.

Die Computerbase 8K 144 FPS Bubble ist nicht der Nabel der Welt.
 
Gullveig schrieb:
Besserer DRM Schutz.
Wie? DP hat auch HDCP.
Weyoun schrieb:
Bei HDMI 2.1 gab es anfangs lediglich eine Art "Mindestfunktionalität", die die Geräte intern unterstützen müssen, aber kein verpflichtedes "Gesamtpaket" aller möglichen Funktionen. Somit kann es sein, dass auch das bestzertifizierte HDMI 2.1 Kabel nicht alle Funktionen unterstützt, wenn die Hardware nicht alles kann.
Was sollen denn das für Mindestfunktionen sein? Und nein, es gibt keine "HDMI 2.1" Kabel. Es gibt HDMI Ultra High Speed Kabel. Und die können alles was es in HDMI 2.1 zu tun gab. Hersteller mögen lügen über die Kabelqualität, aber das ist was das bedeutet. Deshalb gibt es die Zertifzierungen. Auch mit QR Code damit man nachschlagen kann, ob es tatsächlich verifiziert ist (oder wenn die Zertifizierung unter einem nicht genannten OEM ist). Und gibt tatsächlich Hersteller die ein Demo-ertifikatslogo in Amazon dreist einstellen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Hmm, also bei HDMI2.2 immer noch keine Vernunft (volle Integration in USB4, als optionales Feature) eingekehrt.

Aber vielleicht nutzen sie ja wenigstens den TB5-PHY Mode (120/40G) den hoffentlich Intel als Entwickler wie bereits zuvor TB3-PHY (40/40G) lizenzfrei gestellt hat - ganz ähnlich wie das "damals" Vesa mit DP2.0/2.1 und TB3 gemacht hat. So das das auch als alternate USB Mode auf dem USB-C Kabel (USB 120Gbps) alternativ übertragen werden kann ? Das böte dann die Möglichkeit optischer Kabel (lange..) die beide Standards gleichermaßen abdecken.

Immerhin die Datenrate ist deutlich geringer als bei USB4v2/TB5 - der HDMI Salat geht also grundsätzlich auch über eine USB-C 120Gbps Kabel. Notfalls mit Adapter. Kabel USB-C auf HDMI sind also so oder so denkbar. Und die HDMI Anschlüsse an den Computern könnten endlich verschwinden.

Wir werden es erleben wenn der Standard dann mal irgendwann released wird.

Na ja die Hoffnung stirbt zuletzt.

Mal gut das TB5/DP2.1 seit langem released und inzwischen auch auf dem Markt angekommen sind. Das wird den beiden hoffentlich einen Vorsprung verschaffen dem auch TV&Co nicht aus dem Wege gehen können.
 
Zuletzt bearbeitet:
xexex schrieb:
"Lip Sync" gibt es bereits seit HDMI1.3, darüber melden alle Geräte in der Kette, wie lange sie für das Processing der Daten benötigen und der Zuspieler kann so passend Sound und Video auf den Weg schicken.
Ich empfand das immer eher als grobes Schätzeisen (die Geräte handeln die Maximalzeit beim Versatz aus und dieser Wert bleibt dann bestehen, aber in Wirklichkeit schwankt dieser Versatz ja je nach Komplexität eines Frames).
xexex schrieb:
Mit dem "neuen" Feature kommen hier halt Verbesserungen, welcher Art auch immer ins Spiel.
Vielleicht gibt es jetzt mehr Kontinuität (bei jedem Frame wird der Zeitversatz neu ausgehandelt? Sinn würde es jedenfalls machen.
xexex schrieb:
Bei Videos ist es sowieso unproblematisch, schwieriger sieht es hier bei Liveinhalten (Konsole/Gaming) aus, hier kann das Bild nicht mal eben allzu lang verzögert werden. Das ist dann aber kein Problem des Standards, sondern der verarbeitenden Geräte.
Mit etwas Videopuffer solltedoch auch die Video-Übertragung mit der Konsole auch mit wechselnden Bildwiederholzahlen kein Problem sein? Es soll ja zudem auch nicht das Bild gegenüber dem Ton verzögert werden, sondern umgekehrt. Bei komplexen Videoinhalten hängt das Bild dem Ton oft von Natur aus hinterher.
Ergänzung ()

Ray519 schrieb:
Was sollen denn das für Mindestfunktionen sein?
HDMI besitzt ein "Mindest-Feature-Set" und darüber hinaus weitere Zusatzfunktionen.
Ray519 schrieb:
Und nein, es gibt keine "HDMI 2.1" Kabel. Es gibt HDMI Ultra High Speed Kabel. Und die können alles was es in HDMI 2.1 zu tun gab.
Wo habe ich das Gegenteil behauptet? Ich schrieb doch selber in meinem Zitat, das die "Featuritis" nicht vom Kabel abhängt, sondern den von den Endgeräten unterstütztzen Funktionen.
 
Weyoun schrieb:
HDMI besitzt ein "Mindest-Feature-Set" und darüber hinaus weitere Zusatzfunktionen.
Ich habe gefragt, was denn Teil dieses Mindestfeature-Sets ist, auf das man sich verlassen können soll. Wenn du das nicht weißt, dann bist du vielleicht der Falsche für diese Aussage?
1736255980708.png

senf.dazu schrieb:
volle Integration in USB4, als optionales Feature
Das ist nicht möglich und will auch niemand außer HDMI. Die haben es versucht, es wollte keiner, weil es so hässlich ist und unnötig. Deshalb haben sie es sterben lassen.
Es war und ist durch DP verfügbar, weil DP ganz offiziell dafür designt ist zu anderen Standards adaptieren zu können.
senf.dazu schrieb:
TB5-PHY Mode (120/40G) den hoffentlich Intel als Entwickler wie bereits zuvor TB3-PHY (40/40G) lizenzfrei gestellt hat
?
a) Das ist USB4 Phy. TB3 Zeugs ist ja auch nicht von Intel direkt öffentlich, sondern nur über den Umweg von USB4. b) Warum sollte irgendwer für ein Display einen 40 Gbit/s Rückkanal brauchen. Selbst wenn, dann meinst du USB4 Gen 4 Phy, was ~40 Gbit/s pro Leitungspaar ist und damit 160 Gbit/s für ein volles Kabel wäre.

Gen 3 Phy ist 20 Gbit/s pro Leitungspaar und was DP versucht für UHBR20 wiederzuverwenden (unklar wie exakt) für 80 Gbit/s auf den vollen 4 Leitungspaaren, die HDMI ja mittlerweile auch nutzt.

Für HDMI mit 96 Gbit/s wird ein Leitungspaar also nur sehr leicht leicht oberhalb von UHBR20 betrieben (mit 24 Gbit/s pro Leitungspaar mit an Sicherheit grenzender Wahrscheinlichkeit). Ob sie das jetzt auch mit PAM erreichen oder nur mit Frequenzsteigerungen wissen wir nicht. Gen 4 hat ja beides gemacht, wenn auch zu einem wesentlich größeren Anteil PAM (Baudrate steigt nur von 20 GBaud auf 25.6 GBaud für Gen 4).

Aber auf der anderen Seite hat HDMI auch nicht die Vorteile die DP hat, davon USB4 Phy wiederzuverwenden. Bei DP ist das ja, dass man USB-C Kabel für beides nutzen kann und dass USB4 Ports sowieso nativ DP ausgeben müssen. Mit HDMI existiert das ja nicht. Also gibt es vermutlich bessere Ansätze für HDMI als von einem Standard mit anderen Steckern und Kabeln etc. ab zu schauen.

Da 24 Gbit/s genau das doppelte von den mit FRL 6 aktuell maximalen 12 Gbit/s pro Leitungspaar sind, wird das mit Sicherheit auch mehr verwandt sein mit dem aktuellen FRL Phy als irgendwas von USB4. Wenn sie was zu Kabellängen im Vergleich mit Ultra High Speed Kabeln sagen, dann können wir raten ob sie die Frequzenz dafür massiv gesteigert haben oder nicht. Weil das geht sehr wahrscheinlich mit kürzeren passiven Kabeln einher.
 
Zuletzt bearbeitet:
Weyoun schrieb:
Es soll ja zudem auch nicht das Bild gegenüber dem Ton verzögert werden, sondern umgekehrt.
Die "normale" Konfiguration sieht heute doch eher wie auf dem Bild aus, der Zuspieler hängt am TV Gerät, der Sound wird über das Anzeigegerät an die Soundbar geschickt und die muss auch noch weitere Lautsprecher per Funk bedienen.

Also nein, in den meisten Fällen müsste eben das Bild und nicht der Ton verzögert werden. Zumal beim Gaming heutzutage die Bildschirme meist das Bild ohne weitere Verschlimmbesserer zügig verarbeiten.
 
senf.dazu schrieb:
Aber vielleicht nutzen sie ja wenigstens den TB5-PHY Mode (120/40G) den hoffentlich Intel als Entwickler wie bereits zuvor TB3-PHY (40/40G) lizenzfrei gestellt hat...
Das ist die Frage, die Kompatibität des PHY-Levels. Bei TB5 wird PAM-3 Kodierung genutzt, um die Signalfrequenz senken zu können. Zudem habe ich bislang für TB5 nur Kabel gefunden welche auf 1 Meter Länge begrenzt sind. Kann sein dass es längere TB5 Kabel gibt und ich nur nicht genügend danach gesucht habe.
Eine Begrenzung bei HDMI auf 1 Meter halte ich etwas zu wenig.

senf.dazu schrieb:
Immerhin die Datenrate ist deutlich geringer als bei USB4v2/TB5 - der HDMI Salat geht also grundsätzlich auch über eine USB-C 120Gbps Kabel. Notfalls mit Adapter. Kabel USB-C auf HDMI sind also so oder so denkbar. Und die HDMI Anschlüsse an den Computern könnten endlich verschwinden.
Das Problem ist dass USB-C nicht alle el. Verbindungen von HDMI umsetzen kann, weil bei HDMI nicht die gesamte Übertragung per TDMS/FRL Links geschieht sondern noch einige weitere Links vorhanden sind, welche nicht so einfach über USB-C umgesetzt werden können, wobei ich selbst eine Umsetzung der TDMS Links der älteren HDMI Revisionen über USB-C für technisch fraglich halte.
Die sonstigen Links wie DDC / CEC oder ARC halte ich ebenfalls für herausfordernd diese über USB-C zu implementieren.
 
Tigerfox schrieb:
Keine Ahnung, weil der Stromverbrauch trotzdem noch zu hoch ist? Erklär Du es mir, wenn Du so gut bescheid weisst.
Das hat nichts mit dem Stromverbrauch zu tun sondern dass die Prozesse mit den kleinsten Strukturgrößen auch am teuersten sind. Das geht weit über den gesunkenen Flächenbedarf pro Die hinaus.
Folglich wäre das Resultat deines Wunsches teurere NICs.

Dass das aktuell niemand bezahlen kann, ist mir klar, aber ich find es halt eine Fehlentwicklung, [...] gerade bei 400GbE sind und 800GbE/1.6TbE mit PCIe6.0x16-Interface schon am Horizont stehen.
Wenn da zwischendurch mal jemand Hardware in kleineren Maßstäben für Consumenten entwickelt hätte, wäre die auch vielleicht schon günstiger. Also meinetwegen einen NIC mit 1x25GbE mit SFP28 [...]
Und du hast geschaut was solche Karten kosten und welche Transportmedien dort nötig sind?
"Billiges" 10G Equipment gibt's auf dem Gebrauchtmarkt schon lange - frisst aber viel Strom und braucht Glasfaser.
"in kleinerem Maßstab" = Sackteuer. Das Zeug funktioniert nur über Skalierung, d.h. dein Produkt muss einen vom Markt akzeptierten Preis und gleichzeitig Volumen haben.
Du hast zuviel technisches Blabla dazwischen, dass völlig irrelevant ist. Ob das PCIe 1 oder 12 ist und SFP+ oder SFP56 ist erstmal irrelevant, Fakt ist: die Chips sind teuer, weil die Logik aufwändig ist und über Kupfer ist das alles Mist.
Ob Ethernet oder DSL: Am Ende haben sie alle das Problem Kupfer und Glasfaser für Endkunden ist im Massenmarkt einfach schwierig.
Die nötigen Filter/Fehlerkorrekturlogiken machen den großteil des Stromverbrauchs aus, sind komplex und brauchen neurere Fertigungstechniken.
Einen aktiv gekühlten 8-port 25G Kupfer Switch, der 100 Watt verbraucht, hat in dem "Zielmarkt" einfach keine Chance.
 
@Nagilum99 : Meine naive Vorstellung war, dass wenn man teuren modernen NICs runterskaliert und in moderneren Fertigungsprozessen fertigt, die Kosten pro Chip erschwinglich werden und auch der Stromverbrauch singt.
Also Beispielsweise kostet ein Intel E810-XXVDA2 mit 2x25GbE an PCIe4.0x8 auch nur fast die Hälfte vom großen Bruder E810-QDA2 mit 2x100GbE an PCIe4.0x16. Wenn man da jetzt nochmal halbierte und 1x25GbE an PCIe4.0x4 böte...
Aber ich habe halt keine Ahnung, wieviel Anteil an Transistoren man dadurch spart und in welchen Prozessen solche NICs gefertigt werden. Mir ist vollkommen klar, das neuste Prozesse eher mehr Geld kosten als weniger.
Bei 10GbE sieht man aber wie das so ganz allmählich funktioniert und diesen Prozeß sollte man auch beschleunigen können. Aber da reine 10GbE-Switches mit mehr als 5 Ports und Link Aggregation immer noch sehr teuer sind und aktiv zu kühlen sind, hoffe ich wohl zuviel.

Nur irgendwann muss man wohl Glasfaser auch Konsumenten schmackhaft machen, sonst ist bei 10GbE Ende.
 
Ray519 schrieb:
Ich habe gefragt, was denn Teil dieses Mindestfeature-Sets ist, auf das man sich verlassen können soll. Wenn du das nicht weißt, dann bist du vielleicht der Falsche für diese Aussage?
Schau mal hier ab der Überschrift "Was muss ein Fernseher mit HDMI 2.1 können?"
https://hifi.de/ratgeber/hdmi-2-1-28673
Ergänzung ()

xexex schrieb:
Die "normale" Konfiguration sieht heute doch eher wie auf dem Bild aus, der Zuspieler hängt am TV Gerät, der Sound wird über das Anzeigegerät an die Soundbar geschickt und die muss auch noch weitere Lautsprecher per Funk bedienen.
Ich habe wieder von aktiven Funk-Lautsprechern zurückgewechselt auf passive Lautsprecher am AVR, weil jeder Lautsprecher-Hersteller sein eigenes Süppchen kocht (proprietärer Funkstandard mit unterschiedlichen Frequenzen, Datenraten und Delay-Zeiten). Von daher ist bei mir das Bild ausschlaggebender Faktor. ;)
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
@Weyoun
Kannst du lesen?
Die technische Beschreibung von HDMI 2.1 umfasst 15 mögliche Features, die wir unten als Tabelle aufgeführt haben. Grundsätzlich gilt allerdings: Kein Gerät (Fernseher, Ultra-HD-Player, AV-Receiver usw.) muss alle HDMI-2.1-Techniken auch wirklich beherrschen. Seit jeher können die Hersteller für die HDMI-Schnittstellen ihrer Produkte jeweils entscheiden, welche HDMI-Funktionen sie tatsächlich umsetzen sollen.

120-Hertz-Display ist Pflicht​

Wenn ein Fernseher mit “HDMI 2.1” beworben wird, sollte er ein reaktionsschnelles 4K-Display mit 120 Hz Bildwiederholrate haben, HDR unterstützen und mindestens einen HDMI-Eingang für 4K mit 120 Hz haben. Nur damit bietet er mehr Zukunftssicherheit als frühere HDMI-Versionen und kann moderne Spielkonsolen ausreizen.

Nach den HDMI-Lizenzregeln dürfen Hersteller aber für einen 60-Hz-Fernseher HDMI 2.1-Technik angeben, wenn er etwa die Features HDMI eARC, ALLM und dynamisches HDR bietet.

Da steht inhaltlich genau was ich sage: HDMI 2.1 ist eine PDF. Diese garantiert kein einziges Feature, sie beschreibt nur, wie Features gehen würden und zusammenarbeiten. So dass es rückwärtskompatibilität gibt. Was unterstützt wird, muss der Hersteller dir sagen.

Und deshalb zitiere ich auch immer wieder aus den FAQ von HDMI selbst:
1736279071677.png

https://www.hdmi.org/spec/hdmi2_1

Der einzige Zweck die Version überhaupt zu erwähnen, ist um präzise zu definieren um was für ein "VRR" oder "ALLM" es sich handelt. Weil wenn in der Zukunft irgendwas genauso heißt oder erweitert wird, ist das extra präzise. Aber "HDMI 2.1" alleine ist wertlos und nicht zu nutzen für Produkte oder Ports. Sondern referenziert nur die PDF.

Du brauchst die Versionsnummer maximal anzuführen wenn du sagst "kann ALLM, VRR nach HDMI 2.1".
 
Tigerfox schrieb:
@Nagilum99 :
Wenn man da jetzt nochmal halbierte und 1x25GbE an PCIe4.0x4 böte...
Nur, dass das nicht ansatzweise so funktioniert. Du kannst nicht einfach eine Logik halbieren, damit halbe Bandbreite rauskommt. Das Ergebnis deiner Vorstellung wäre ein toter, nutzloser Chip.

Aber ich habe halt keine Ahnung, wieviel Anteil an Transistoren man dadurch spart und in welchen Prozessen solche NICs gefertigt werden.
Kann ich dir auch nicht sagen, aber das - s.o. - funktioniert so nicht im Ansatz. Jeder Standard braucht bestimmte Logikteile auf dem Chip die für Frquenzen, Modulationsverfahren und Fehlerkorrekturen ausgelegt sind. Ein PCIe 4.0 Controller muss folglich Controller für 1, 2, 3 und 4 enthalten und handelt mit dem ggü. aus, welcher Standard für beide machbar ist. Das gleiche läuft bei USB, Ethernet etc. ab.

Bei 10GbE sieht man aber wie das so ganz allmählich funktioniert und diesen Prozeß sollte man auch beschleunigen können. Aber da reine 10GbE-Switches mit mehr als 5 Ports und Link Aggregation immer noch sehr teuer sind und aktiv zu kühlen sind, hoffe ich wohl zuviel.
LAG fällt für nicht-verwaltete Switche eh raus, damit ist dein Eigangspost schon daneben.
Davon ab könnte dir ja die Idee kommen, dass die Unternehmen das täten, wenn das so einfach wäre. Immerhin ist durchaus ein Markt vorhanden - für günstiges 10GE.
Praktisch gesehen ist 10GE via Kupfer aktuell nur halbwegs erträglich (So 1 - 2 Watt pro Port), weil sie heute kleiner gefertigt werden.
Dein "das muss ja beschleunigt gehen" würde heißen, dass du von TSMC erwartest, dass sie ihre neuen Fertigungsprozesse verschleudern - denn davon hängt viel ab. Kupfer in den Regionen bedeutet vor allem: Fehlerkorrektur in Hardware. Was da an "Signal" ankommt, ist visualisiert nur noch Pampe.

Es gibt viel Literatur dazu, ich kann dir aber spontan keine konkreten Links nennen.

Edit: Im Übrigen kannst du nichts einfach skalieren. Jedes exakte Chip-Produkt benötigt eine Belichtungsmaske. Änderst du etwas, muss die Maske neu - inkl. des nötigen Rattenschwanzes.
"Mal eben" einen 5GE Chip entwickeln und bis zur fertigen Belichtungsmaske bringen kostet einen Millionenbetrag.
 
Skjöll schrieb:
Bringt der neue Standard denn bei der Magenta-TV-Box verbesserte Qualität, mit der so geworben wird?
Vielleicht bei zukünftigen Geräten, sofern dort eine entsprechende Schnittstelle integriert wurde.

Und nein, aktuell habe ich dazu keine Informationen. ;-)

Viele Grüße ^Torsten
 
Zurück
Oben