Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Kaby Lake: Hardware-Unterstützung für 10-Bit HEVC und VP9 bestätigt
Das aktualisierte Intel Media SDK 2016 R2 unterstützt erstmals die neuen Core-Prozessoren der siebten Generation inklusive neuer Core M, die unter dem Codenamen Kaby Lake laufen. Intel bestätigt dabei, dass die neue Prozessorfamilie erstmals volle Hardwareunterstützung für 10-Bit HEVC und VP9 bieten wird.
Gespannt bin ich vorallem auf den 4+4e. Mal sehen ob hier der eDRAM wieder alles abzieht. Da man ja beim Chipsatz nochmal 4 Lanes draufpackt, weiß man ob es änderungen beim HSIO gibt, wenn man größere Flexibilty schon erwähnt?
Interessieren würde mich auch wie ich Optane Support beim PCH bemerkbar macht.
Wird wahrscheinlich die integrierte Grafikeinheit gemeint sein. Soll denke ich die Trennung zwischen Server CPUs und Desktop klarer machen. Wird ja aktuell schon von Intel so gewünscht, dass die Xeons nicht mehr als Ersatz im Desktop Bereich dienen.
Der Unterschied zwischen CPU- und GPU-(En-)Codierung ist, dass die GPU das viel schneller hinbekommen kann. 4k, 10 bit 60 fps treibt auch moderne i7-Desktop-CPUs ohne Hardwarebeschleunigung an ihre Grenzen.
Bei hardwarebeschleunigten Vorgängen liegt oft nur noch eine Last von 10-15 % an der CPU an.
Gerade wenn man neu kauft erhält man damit nette Mehrmöglichkeiten wie z.B. vom Notebook entsprechende Medien (4k, 10 bit, 60 fps) an einen Monitor oder Fernseher zu streamen. Aktuell ist das noch mit einem Prä-Skylake-Notebook eigentlich nicht möglich. :-)
@Morku: Man möchte ja auch im nächsten Jahr noch Neuerungen präsentieren können. Wenn man schon keine Mehrleistung anbieten kann, dann bietet man halt ein paar neue Features an.
Ich glaube es hat einen einfachen Grund: Aktuell ist nicht mal 10 bit ansatzweise am Markt angekommen. Man braucht dafür Quellen, Hardware die damit umgehen kann und auch einen passenden Monitor. Aktuell fahren die meisten mit 8 Bit (oder sogar noch 6 Bit). Dazu kommt, dass man mehr Chipfläche verbraucht, es auch erst mal entwickelt werden muss und ich nicht mal weiß, ob der Codec mehr als 10 Bit unterstützt.
Ich glaube es hat einen einfachen Grund: Aktuell ist nicht mal 10 bit ansatzweise am Markt angekommen. Man braucht dafür Quellen, Hardware die damit umgehen kann und auch einen passenden Monitor. Aktuell fahren die meisten mit 8 Bit (oder sogar noch 6 Bit). Dazu kommt, dass man mehr Chipfläche verbraucht, es auch erst mal entwickelt werden muss und ich nicht mal weiß, ob der Codec mehr als 10 Bit unterstützt.
Was angekommen ist hat mit dem speziellen Markt zu tun....Das hat mit dem Monitor nix zu tun. 10bit gibts schon bei h.264 und ist z.B. in der Anime Szene schon seit vielen Jahren Standard. Der Vorteil von 10bit encoding ist: weniger Platzbedarf bei gleicher Qualität. Der Codec unterstützt 10bit schon seit AVC.
Naja für mich als Gamer wo die igpu deaktivert ist alles eher uninteressant, aber für nen htpc i3 7100 passiv sicher eine nette Sache wenn die igpu weiter verbessert wird.
10bit encode hebt man sich dann wohl für Cannonlake auf, also immer nur kleine Schritte so bekommt jede Generation ne kleine Verbesserung.
Ansonten ist Kaby eher uninteressant, da der 6700 hoffentlich dank Dx12 und vermehrten Multicoresupport an die 5 Jahre wie Sandy halten wird.
Die 10bit werden vor allem genutzt um Banding (sichtbare Farbübergänge) zu vermeiden. Bei 8bit muss im Videostrom Dether vorhanden sein um Banding zu vermeiden, was die Datenrate aufbläht. Die Farbauflösung auf 12bit hochzuschrauben bringt dann kaum noch etwas, da die 10bit eh schon 4x feiner Auflösen als die meisten Monitore beim Endkunden.
Für einen sinnvollen Einsatz einer höhere Farbauflösung muss dann wirklich bessere Anzeigehardware her.
Die Anime Subkultur ist eben ein solcher spezieller Markt. Nicht "Mainstream" aber ein relativ großer Nutzer eines Codecs mit speziellen Einstellungen.
Weiss nicht was ich davon halten soll Software in Hardware zu gießen.
Mathe Coprozessor in die CPU verstehe ich ja. Ebenso bei ARM wo nicht genügend Energie vorhanden ist um Multimediadaten in Software zu verarbeiten oder Grafikkarten für ganz spezielle Aufgaben aber sonst?
Ja, man ist an Performancegrenze angekommen, Ja, Transitoren auf Chip kosten fast nichts mehr. Trotzdem... Nicht, dass wir eines Tages bei winword.exe auf CPU verdrahtet sehen.