News Intel Kaby Lake: Hardware-Unterstützung für 10-Bit HEVC und VP9 bestätigt

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.714
Die Abbildung kann man nur verstehen, wenn man das IDF15 rechts richtig interpretiert - diese also von letztem Jahr ist?
​Very confusing....
 
Gespannt bin ich vorallem auf den 4+4e. Mal sehen ob hier der eDRAM wieder alles abzieht. Da man ja beim Chipsatz nochmal 4 Lanes draufpackt, weiß man ob es änderungen beim HSIO gibt, wenn man größere Flexibilty schon erwähnt?
Interessieren würde mich auch wie ich Optane Support beim PCH bemerkbar macht.
 
Hm warum ist das "GPU Accelerated" ? Hilft die GPU mit oder geht es nur über die GPU ?:o

€: Vor allem wie schnell kann es z.B UHD von x264 auf HEVC convertieren?
 
Zuletzt bearbeitet:
Spielt dass denn bei einer "APU" eine Rolle was was macht?
 
Wird wahrscheinlich die integrierte Grafikeinheit gemeint sein. Soll denke ich die Trennung zwischen Server CPUs und Desktop klarer machen. Wird ja aktuell schon von Intel so gewünscht, dass die Xeons nicht mehr als Ersatz im Desktop Bereich dienen.
 
Der Unterschied zwischen CPU- und GPU-(En-)Codierung ist, dass die GPU das viel schneller hinbekommen kann. 4k, 10 bit 60 fps treibt auch moderne i7-Desktop-CPUs ohne Hardwarebeschleunigung an ihre Grenzen.
Bei hardwarebeschleunigten Vorgängen liegt oft nur noch eine Last von 10-15 % an der CPU an.
Gerade wenn man neu kauft erhält man damit nette Mehrmöglichkeiten wie z.B. vom Notebook entsprechende Medien (4k, 10 bit, 60 fps) an einen Monitor oder Fernseher zu streamen. Aktuell ist das noch mit einem Prä-Skylake-Notebook eigentlich nicht möglich. :-)
 
Worin besteht das Hindernis nicht auch gleich 12-Bit mitzunehmen?
 
@Morku: Man möchte ja auch im nächsten Jahr noch Neuerungen präsentieren können. Wenn man schon keine Mehrleistung anbieten kann, dann bietet man halt ein paar neue Features an.
 
Ich glaube es hat einen einfachen Grund: Aktuell ist nicht mal 10 bit ansatzweise am Markt angekommen. Man braucht dafür Quellen, Hardware die damit umgehen kann und auch einen passenden Monitor. Aktuell fahren die meisten mit 8 Bit (oder sogar noch 6 Bit). Dazu kommt, dass man mehr Chipfläche verbraucht, es auch erst mal entwickelt werden muss und ich nicht mal weiß, ob der Codec mehr als 10 Bit unterstützt.
 
Werden die Intel Chipsätze für Kaby Lake auch Usb 3.1 sowie den Type C Anschluss anbieten?
 
Master Sheep schrieb:
Ich glaube es hat einen einfachen Grund: Aktuell ist nicht mal 10 bit ansatzweise am Markt angekommen. Man braucht dafür Quellen, Hardware die damit umgehen kann und auch einen passenden Monitor. Aktuell fahren die meisten mit 8 Bit (oder sogar noch 6 Bit). Dazu kommt, dass man mehr Chipfläche verbraucht, es auch erst mal entwickelt werden muss und ich nicht mal weiß, ob der Codec mehr als 10 Bit unterstützt.

Was angekommen ist hat mit dem speziellen Markt zu tun....Das hat mit dem Monitor nix zu tun. 10bit gibts schon bei h.264 und ist z.B. in der Anime Szene schon seit vielen Jahren Standard. Der Vorteil von 10bit encoding ist: weniger Platzbedarf bei gleicher Qualität. Der Codec unterstützt 10bit schon seit AVC.
 
Wird dann wenigstens auch mal HDMI 2 unterstützt? Mittlerweile ist das nur noch peinlich von Intel.
 
Naja für mich als Gamer wo die igpu deaktivert ist alles eher uninteressant, aber für nen htpc i3 7100 passiv sicher eine nette Sache wenn die igpu weiter verbessert wird.
10bit encode hebt man sich dann wohl für Cannonlake auf, also immer nur kleine Schritte so bekommt jede Generation ne kleine Verbesserung.
Ansonten ist Kaby eher uninteressant, da der 6700 hoffentlich dank Dx12 und vermehrten Multicoresupport an die 5 Jahre wie Sandy halten wird.
 
@HominiLupus

Was meinst du mit speziellem Markt?

-------------------------------------------------------

Die 10bit werden vor allem genutzt um Banding (sichtbare Farbübergänge) zu vermeiden. Bei 8bit muss im Videostrom Dether vorhanden sein um Banding zu vermeiden, was die Datenrate aufbläht. Die Farbauflösung auf 12bit hochzuschrauben bringt dann kaum noch etwas, da die 10bit eh schon 4x feiner Auflösen als die meisten Monitore beim Endkunden.

Für einen sinnvollen Einsatz einer höhere Farbauflösung muss dann wirklich bessere Anzeigehardware her.
 
Zuletzt bearbeitet:
Die Anime Subkultur ist eben ein solcher spezieller Markt. Nicht "Mainstream" aber ein relativ großer Nutzer eines Codecs mit speziellen Einstellungen.
 
also das mit dem GPU decode finde ich schon interessant, heisst, das denn dass fast alle Codecs gar nicht wirklich HW beschleunigt laufen???
 
Weiss nicht was ich davon halten soll Software in Hardware zu gießen.

Mathe Coprozessor in die CPU verstehe ich ja. Ebenso bei ARM wo nicht genügend Energie vorhanden ist um Multimediadaten in Software zu verarbeiten oder Grafikkarten für ganz spezielle Aufgaben aber sonst?

Ja, man ist an Performancegrenze angekommen, Ja, Transitoren auf Chip kosten fast nichts mehr. Trotzdem... Nicht, dass wir eines Tages bei winword.exe auf CPU verdrahtet sehen.
 
Das finde ich auch! Nicht dass noch jemand anfängt, extra Chips nur für die Darstellung von 3D Grafik herzustellen... oh wait...
 
Zurück
Oben