Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAdobe Premiere Pro 22.2: Schneller HEVC-Export für Nvidia Ampere und Intel Iris Xe
Adobe möchte den Export von Videomaterial in HEVC alias H.265 auf Grafikkarten aus der Produktfamilie Nvidia Ampere und Intel Iris Xe mit dem Update auf das neueste Premiere Pro 22.2 deutlich beschleunigen. Außerdem wird erstmals die Notch des MacBook Pro 14" (Test) und 16" mit M1 Pro und M1 Max offiziell unterstützt.
Wow, Intel nativ ist mit 88 Sekunden bei UHD komplex sehr schnell, da braucht es nicht mehr unbedingt eine Nvidia GPU mit 37 Sekunden. Gut, das Notebook wird hier dann einige Sekunden länger blasen und pfeifen.
Adobe sollte lieber mal schauen, dass ihre sündhaft teuren altbackenen Proggis (neudeutsch: Apps) es endlich mal hinbekommen mehr als einen CPU-Kern zu nutzen. Gerade vorhin schon wieder in Firma über Acrobat Pro geärgert. Bei komplexeren Dokumenten dauerts ewig und stürzt zum Teil noch ab.
Ob das bei Premiere auch so ist weiss ich zwar nicht, aber Illustrator nutzt auch nur einen Kern.
der Moment, wenn eine Intel igpu mehr produktiv Support hat als jede AMD gpu. wieso ist es für AMD akzeptabel bei Pro Software und workloads einfach komplett konkurrenzunfähig zu sein?
Naja, bei 4:2:0 wird ein Farbkanal von 2en ja offensichtlich weggelassen. Das bei so einer Einstellung die höchste Geschwindigkeit zu erwarten ist liegt auf der Hand. Alles andere ist dann weniger beschleunigt.
@Viper816 in den letzten Updates ist bei Premiere und After effects endlich mal am multicore support gearbeitet worden. Ist schon um einiges besser, im Vergleich von vor 2-3 Jahren. Vll bekommt ja in den nächsten 2-3 Jahren auch Acrobat hier Verbesserungen
Adobe ist hier leider wirklich sehr träge. Immer mehr Funktionen aber an der Performance und Stabilität haben sie ewig nichts gemacht.
Ist der absolute Standard in allen Auslieferungen von BluRay, über YouTube bis Netflix.
"Nur" bei der Aufnahme und den Intermediates zum Austausch in den PostProduction Arbeitsschritten werden 4:2:2 und 4:4:4 genutzt weil das einen erheblichen Vorteil beim Color-Graden und Chroma-Keying (Greenscreen) bringt.
Topflappen schrieb:
Naja, bei 4:2:0 wird ein Farbkanal von 2en ja offensichtlich weggelassen.
Nein, Chroma Subsampling "4:2:0" bedeutet, das sich 4 Pixel einen Farbwert teilen.
Das entspricht auch unserem natürlichen Sehvermögen, weil wir Helligkeitsunterschiede (Luma) deutlich besser differenzieren können als Farbunterschiede (Chroma).
Daran ist wunderbar zu erkennen wie schlecht die Software vorher eigentlich war, denn ansonsten wären nicht solch große Sprünge möglich. Den H265 Codec gibt es ja schon einige Jahre und dieser Codec kommt vor allem bei 4K Inhalten zum Einsatz und da bietet sich die GPU einfach an. Dann werden immer kleine Optimierungen per Software gemacht um den Kunden zu zeigen das Abo lohnt sich für Euch aber in Wirklichkeit hält man die Performance bewusst zurück um dann bei Bedarf größere Schritte zu machen. Deshalb sind die ganzen Vergleich zwischen Intel CPU und AMD CPUs immer für die Katz da Intel einfach mehr bezahlt und dann somit die System auf Intel optimiert werden. Die AMD CPUs haben viel mehr Performance alleine aufgrund der deutlich größerer Level Cache, denn immer wenn Filter zum Einsatz kommen muss das Bild komplett in die CPU geladen werden und dann der Filter darauf angewendet werden. Meistens werden mehrere Filter übereinander gelegt so das die Performance damit steigt. Bei Intel muss das Bild und das Ergebnis ständig zum RAM und Level Cache kopiert werden so das der Flaschenhals immer die Bandbreite vom RAM ist die mal locker um Faktor 10 langsamer ist als der Level 3 Cache. Wenn jetzt noch die neune AMD CPUs mit dem 3D Level Cache kommen sollte dies eine noch mal bessere Performance bringen, jedoch wird die dann mit Absicht undrückt, da Intel mehr zahlen wird. Am Ende dreht sich immer alles nur ums Geld.
@xexex Ich hab mich schon gewundert, weil ich mich erinnert habe, dass RDNA 2 die Features doch eigentlich in Hardware unterstützen sollten, oder wenigstens hatte ich das im Kopf. Es scheint auch so zu sein, lediglich die Softwareunterstützung von AMD fehlt. Das ist MAD.
Einer der Hauptgründe warum ich mich nach Jahren der PPro Erfahrung in DaVinci Resolve eingearbeitet habe und dahin gewechselt bin.
War sehr Zeitaufwändig anfangs, aber jetzt nach einem Jahr Nutzung hat es sich defintiv gelohnt.
Premiere ist ständig abgestürzt und hat bei mittelmäßig komplexen Sachen ewig zum rendern gebraucht.
Teilweise 40 Minuten für ein 3Minuten Video - welches in Resolve in 2Minuten auf der 3090 gerendert wird.
Das ist nicht nur die HEVC-GPU unterstützung, sondern der CPU-Multicore und GPU support bei sämtlichen Effekten.
Es werden jetzt nicht die Shader benutzt sondern die HW Beschleunigung.
JoeDoe2018 schrieb:
Dann werden immer kleine Optimierungen per Software gemacht um den Kunden zu zeigen das Abo lohnt sich für Euch aber in Wirklichkeit hält man die Performance bewusst zurück um dann bei Bedarf größere Schritte zu machen.
Deshalb sind die ganzen Vergleich zwischen Intel CPU und AMD CPUs immer für die Katz da Intel einfach mehr bezahlt und dann somit die System auf Intel optimiert werden.
Hier geht es nicht um irgendwelche CPU optimierungen. Es wurde die HW Beschleunigung aktiviert und die gibt es halt bei AMD nicht für 10Bit HEVC. Vielleicht hätte AMD hier mal mehr "bezahlen" müssen indem sie das implementiert hätten.
Den Rest lasse ich mal unkommentiert, da er absolut keinen Sinn ergibt.