Du verstehst glaub ich das ganze Prinzip der Farbmodelle nicht. Wenn du eine Komponente weglässt (Cb oder Cr), du kannst sie meinetwegen auch Kanal nennen, dann kommen komplett falsche Farben raus. Subsampling reduziert nur die Auflösung.Topflappen schrieb:Sofern du SW aufnimmst hast du recht, bei Farbe leider nicht. Du kannst den Kanal natürlich auch
Chrominanz nennen, ändert aber nicht den Inhalt, der ist nun mal Farbe.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Adobe Premiere Pro 22.2: Schneller HEVC-Export für Nvidia Ampere und Intel Iris Xe
Uly.Reino
Cadet 2nd Year
- Registriert
- Jan. 2009
- Beiträge
- 26
Mmh, mit VCN oder VCE sollte AMDs RDNA2 HEVC 10-bit encoding doch beherrschen?! 🤔
https://codecalamity.com/amd-hardware-encoding-in-2021-vce-vcn/
https://codecalamity.com/amd-hardware-encoding-in-2021-vce-vcn/
Musst Du dann meiner 6800XT nochmal genau erklären, dass das nicht geht, denn die rendert das anstandslos in Resolve, HEVC HDR 10Bit 4:2:0 Rec. 2020 ST2084, alles auf dem Hardwareencoder.foo_1337 schrieb:Es geht leider nur um 10Bit sondern um das komplette Profil/HDR, schau dir den Changelog an (steht auch im Artikel):
Exports for 10-bit 4:2:0 HDR footage
Und da ist nix mit VCN. Und nein, das geht auch nicht mit Davinci Resolve und dem AMD Encoder.
F
foo_1337
Gast
Schau dir das Ergebnis an:Uly.Reino schrieb:Mmh, mit VCN oder VCE sollte AMDs RDNA2 HEVC 10-bit encoding doch beherrschen?! 🤔
https://codecalamity.com/amd-hardware-encoding-in-2021-vce-vcn/
https://codecalamity.com/hardware-encoding-4k-hdr10-videos/
Und dann noch der fehlende B-Frame Support.
Ganz sicher, dass du das nicht mit OpenCL verwechselst? Bis auf vceencc unterstützt aktuell eigentlich niemand 10Bit HDR via VCN aufgrund der Limitierungen. Oder nutzt du genau den extern und musst dann eben mit dem schlechten Ergebnis leben?andronom schrieb:Musst Du dann meiner 6800XT nochmal genau erklären, dass das nicht geht, denn die rendert das anstandslos in Resolve, HEVC HDR 10Bit 4:2:0 Rec. 2020 ST2084, alles auf dem Hardwareencoder.
Das müsste ich tatsächlich später nochmal genau testen. Ich bin davon ausgegangen, dass es bei Auswahl des AMD-Encoders über VCN läuft. Je nach Einstellung könnte es in Resolve aber tatsächlich auch per OpenCL beschleunigt werden. In dem Fall hättest du recht und ich hätte mich geirrt.foo_1337 schrieb:Ganz sicher, dass du das nicht mit OpenCL verwechselst? Bis auf vceencc unterstützt aktuell eigentlich niemand 10Bit HDR via VCN aufgrund der Limitierungen.
KCX
Commodore
- Registriert
- Aug. 2007
- Beiträge
- 4.504
Naja, die Geräte bei mir zeigen es zumindest an. UHD Player, Shield, Denon AVR... Ja sogar 12bitmenace_one schrieb:Hast du da eine Quelle?
Was der TV daraus macht, kann ich aber nicht sicher sagen. 12bit kann aber schonmal nicht sein.
TZUI1111
Lieutenant
- Registriert
- März 2017
- Beiträge
- 552
Also laut Einstiegstest von CB ist Encode nur bis 4k60 Fps möglich, aber genauer ob 8,10,12 Bit oder 4:4:4, 4:2:2, 4:2:0 konnte ich jetzt erstmal nichts finden. Selbst Wikipedia streikt hier, während bei der alten Seite einige Quellen genannt werden ^^ Also sollte H265 mit 10Bit in 4k gehen, aber ich weiß jetzt immer noch nicht mit welchem Subsampling.
Zuletzt bearbeitet:
F
foo_1337
Gast
@TZUI1111 Ja, in der Theorie geht das alles. Mit vceencc kannst du das auch testen. Das ist die einzig mir bekannte Implementierung für die HDR Profile. Aber die Realität (habe ich oben verlinkt) zeigt halt, dass diese Ergebnisse keiner professionell einsetzen will. Dazu kommt, dass immer noch keine B-Frames unterstützt werden, was ein riesen Problem darstellt. AMD hatte wirklich lange genug Zeit hier mit Nvidia und Intel gleich zu ziehen. Aber sie hatten andere Prioritäten. Was im Prinzip auch nicht schlimm ist. Sie machen top Gaming Karten. Im Professional Bereich überlassen sie halt (noch?) Nvidia das Feld. Sie legten ja bei den RX6xxx Karten auch sehr viel Wert darauf, dass das Gaming Karten sind.
Ich frage mich daher wirklich, woher jetzt die Aufregung kommt. AMD hat die letzten Jahre einen Sch* auf sowas gegeben. Sie liefern einen guten OpenCL Support und Premiere / Davinci nutzen diesen auch. Aber HW Encoding war sicher keine Priorität von AMD, sonst sähe das jetzt anders aus.
Und die Ergebnisse hier zeigen auch, dass es wohl nicht daran liegt, dass das böse Adobe das arme AMD absichtlich benchteiligt weil es angeblich von Intel/Nvidia bezahlt wird:
https://www.pugetsystems.com/pic_disp.php?id=66142
Ich frage mich daher wirklich, woher jetzt die Aufregung kommt. AMD hat die letzten Jahre einen Sch* auf sowas gegeben. Sie liefern einen guten OpenCL Support und Premiere / Davinci nutzen diesen auch. Aber HW Encoding war sicher keine Priorität von AMD, sonst sähe das jetzt anders aus.
Und die Ergebnisse hier zeigen auch, dass es wohl nicht daran liegt, dass das böse Adobe das arme AMD absichtlich benchteiligt weil es angeblich von Intel/Nvidia bezahlt wird:
https://www.pugetsystems.com/pic_disp.php?id=66142
Zuletzt bearbeitet von einem Moderator:
Hier geht es um 10Bit 420 HDR HEVC H/W-Codierung.JoeDoe2018 schrieb:Daran ist wunderbar zu erkennen wie schlecht die Software vorher eigentlich war
Die 8bit HEVC H/W-Codierung für Videos aus GoPro, Smartphone & Co. werden schon seit Jahren ordentlich unterstützt.
@SV3NAdobe möchte den Export von Videomaterial in HEVC alias H.265 auf Grafikkarten aus der Produktfamilie Nvidia Ampere und Intel Iris Xe mit dem Update auf das neueste Premiere Pro 22.2 deutlich beschleunigen.
Wo genau hast du gelesen, dass das Update einen Bezug zur Nvidia Ampere Generation hat?
HEVC 10-bit Support gibt es seit Pascal.
https://developer.nvidia.com/video-encode-and-decode-gpu-support-matrix-new
Zuletzt bearbeitet:
@Rage @foo_1337 Ich habe gerade in DaVinci Resolve ein schnelles Testvideo in 4K HDR HEVC (AMD Quality Preset) ausgegeben, dabei wurde die GPU moderat ausgelastet bei ca. 90-100 BpS, bei einem Stromverbrauch von ca. 90 bis 100 Watt.
Leider gibt mir GPU-Z keine Sensordaten zur VCE aus. Eine gewisse Grundlast auf der GPU ist bei Resolve ja normal, da ziemlich viele Effekte und Berechnungen Open-CL beschleunigt sind. Auch bei reinem CPU-Redering auf einem 5950X (ca. 50 BpS) wird die GPU ähnlich ausgelastet bei ca. 70 Watt Verbrauch.
Testweise habe ich auch eine NR-Node eingefügt, was die GPU erwartungsgemäß nahezu voll ausgelastet hat (ca. 230 bis 240 Watt Verbrauch).
Gibt es mit RDNA 2 eine Möglichkeit, sich den VCE-Load anzeigen zu lassen? Werde mir das morgen nochmal genauer ansehen.
Leider gibt mir GPU-Z keine Sensordaten zur VCE aus. Eine gewisse Grundlast auf der GPU ist bei Resolve ja normal, da ziemlich viele Effekte und Berechnungen Open-CL beschleunigt sind. Auch bei reinem CPU-Redering auf einem 5950X (ca. 50 BpS) wird die GPU ähnlich ausgelastet bei ca. 70 Watt Verbrauch.
Testweise habe ich auch eine NR-Node eingefügt, was die GPU erwartungsgemäß nahezu voll ausgelastet hat (ca. 230 bis 240 Watt Verbrauch).
Gibt es mit RDNA 2 eine Möglichkeit, sich den VCE-Load anzeigen zu lassen? Werde mir das morgen nochmal genauer ansehen.
Zuletzt bearbeitet:
F
foo_1337
Gast
Zumindest unter Linux mit radeontop (fork) geht es seit diesem Commit: https://github.com/trek00/radeontop/commit/5df288ccb5f6231706d280dedb3a23985dbfb5e8
Die Metrik ist also vorhanden. Ob es unter windows etwas gibt, was diese Metrik ausliest, kann ich nicht sagen.
Die Metrik ist also vorhanden. Ob es unter windows etwas gibt, was diese Metrik ausliest, kann ich nicht sagen.
PegasusHunter
Lt. Commander
- Registriert
- März 2004
- Beiträge
- 1.218
Das kann mit dem windows Taskmanager sehen,während des encoding. Bei GPU video encode links den kleinen Pfeil klicken, dann unten in diesem Dropdownmenü videoencode 0 oder videoencode 1 klicken. Bei meiner 290x zeigte er dort ca. Ab 60% Gpulast an, schwankend nach oben. Bei Boinc guck lch da auch nach,bei compute 0/1 . Ist recht hilfreich, wenn man es mal entdeckt hat, im Taskmanager. ☺️andronom schrieb:Leider gibt mir GPU-Z keine Sensordaten zur VCE aus. Eine gewisse Grundlast auf der GPU i
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.862
Hito360 schrieb:Deine Art und Weise zu schreiben um Tatsachen zu verdrehen ist ekelhaft.
AMD ist mehr als nur konkurrenzfähig, man muss sich um passende Software kümmern anstatt blind das teuerste aufm Markt zu nutzen.
ich nutze die software, die die beste funktionalität hat und nicht die, auf die amd gerade bock hat oder aus reinem glück mal performant (oder überhaupt) läuft.
affinity suite openCL seit einem jahr ungefixt:
https://forum.affinity.serif.com/index.php?/topic/136068-amd-radeon-rx-hardware-acceleration/26.2.2021: Unfortunately we have discovered a bug with AMD's OpenCL driver in the AMD Radeon RX 5000 series and above graphics cards. This has been reported to AMD, and while we wait on a solution, we have blocked these cards from enabling hardware acceleration. We hope this will be a temporary change, but unfortunately we can't give estimates on when it's likely to be fixed. There is no need to downgrade from 1.9.1 to 1.8.5, as the software-only performance will be the same between these two versions. Thanks for your patience.
so gings weiter:
https://forum.affinity.serif.com/in...ffinity-photo-windows-customer-beta-11001085/There's no need to argue or discuss the point of AMD support. We are in contact with AMD, who are being very responsive, and they are working on a fix. The issue is that their latest drivers have been re-written for the new architectures, and there's a problem with the OpenCL kernel compiler, as it's now 10X slower than it was before (this would translate to a hang when switching to a new tool for the first time for each app launch). I've provided them with test cases, and I'm in regular contact with their engineers about the problem.
hier auf reddit noch ein affinity entwickler zu dem thema:
https://www.reddit.com/r/AffinityPhoto/comments/n0gnqv/update_on_amd_opencl/Hi, not at the moment I’m afraid, we’ve communicated the issue to AMD and are waiting on a driver fix.
I feel your pain, I investigated the issue with a 5700XT before sending it to our lead Windows developer (due to shortages as he couldn’t get hold of any similar GPUs!) and the problem is with kernel loading, which happens whenever you perform a raster operation for the first time, eg creating a new pixel layer, putting down a brush stroke, adding an adjustment or filter. Photo has to load the respective hardware kernel for each operation, and something in the AMD drivers for Navi architecture is bottlenecking that severely.
For the time being we’ve just disabled hardware acceleration for those cards since the wait for each kernel to load was atrocious. Once they’re loaded, performance is smooth, but it’s not worth the effort since you’d be sitting around twiddling your thumbs most of the time. Loading a raw file into the Develop Persona requires multiple kernels to be loaded initially, for example, and it can sometimes take 15-20 seconds before you can start doing anything.
Sorry there isn’t better news, but as soon as we’ve got some potential solution we’ll investigate.
hier im amd developer forum nochmal das selbe thema abseits von affinity:
OpenCL compilation times on RX 6800XT seem 10x longer than other AMD cards.
https://community.amd.com/t5/opencl...6800xt-seem-10x-longer-than-other/td-p/494132
bis heute ungefixt.
hier verliert die W6900X gegen den apple m1 max:
https://twitter.com/andysomerfield/...cerkopf.de/2021/10/27/macbook-pro-m1-max-amd/The #M1Max is the fastest GPU we have ever measured in the @affinitybyserif Photo benchmark. It outperforms the W6900X - a $6000, 300W desktop part - because it has immense compute performance, immense on-chip bandwidth and immediate transfer of data on and off the GPU (UMA).
performance in davinci resolve:
https://www.pugetsystems.com/labs/a...dio---AMD-Radeon-RX-6900-XT-Performance-2032/How well does the AMD Radeon RX 6900 XT 16GB perform in DaVinci Resolve Studio?
Overall, AMD is heading in the right direction with the Radeon 6000 series cards, but just like we saw in many Adobe applications, even the impressive gains they are showing over the 5700 XT simply isn't enough for them to catch up to NVIDIA.
From an overall standpoint, the Radeon 6900 XT is solidly beaten by the significantly less expensive GeForce RTX 3060 Ti by about 10%, and falls behind the more closely priced (although still cheaper) RTX 3080 by a larger 23%. And when looking at especially GPU bound tasks like noise reduction and OpenFX, the results are even more in NVIDIA's favor with the GeForce RTX 3080 scoring a massive 56% higher than the Radeon 6900 XT.
hier mal noch premiere - ist leider ein älterer artikel:
Our heavy GPU effects test looks at live playback and export performance with sequences that have a large number of GPU-accelerated effects including Lumetri Color, Ultra Key, Sharpen, Gaussian Blur, Basic 3D, Directional Blur, VR Digital Glitch, and VR De-Noise. Because it is designed to maximize the load on the GPU and minimize the load on the rest of the system, this should be close to the maximum possible performance difference you will ever experience in Premiere Pro with each video card.
https://www.pugetsystems.com/labs/a...up---NVIDIA-GeForce-SUPER-vs-AMD-Radeon-1802/
amd ist hier weder konkurrenzfähig noch bemüht. radeon besitzer warten jetzt schon seit über einem jahr (oder gar seit 2019?) auf den opencl fix für navi 10 und 20 und die alten gpus sind auch nicht gerade mit guter performance gesegnet. die einzig brauchbare radeon für gpgpu war die radeon 7, und die hat amd so schnell wieder abgesägt, dass man in der zeit nicht mal den nachnamen von der guten lisa ausgesprochen bekäme. das, was amd hier für produktivsysteme abliefert, reicht einfach nicht. last gen performance mit bugs ist absolut intolerabel - und dann verliert man auch noch gegen die erste generation apple silicon in einem notebook mit so einem dickschiff wie der w6900X.
@Rage @foo_1337 @PegasusHunter Danke für den Tipp, das kannte ich von meiner VEGA auch noch, bei RDNA 2 werden video Decode 0 und video Encode 1 nicht mehr ausgelesen und zeigen immer 0% Auslastung. Beim nachschauen gerade sah ich aber zwei neue Einträge in der Dropdownliste im Task Mamager, Video Codec 0 (Decoding) und Video Codec 1 (Encoding). Beide werden in Resolve beim Abspielen sowie Codieren von 4k HEVC HDR Material genutzt. Bei der Ausgabe wurde Video Codec 1 mit ca. 80-85% ausgelastet. Also nutzt Resolve scheinbar doch AMDs Hardware Encoder.PegasusHunter schrieb:Das kann mit dem windows Taskmanager sehen,während des encoding. Bei GPU video encode links den kleinen Pfeil klicken, dann unten in diesem Dropdownmenü videoencode 0 oder videoencode 1 klicken. Bei meiner 290x zeigte er dort ca. Ab 60% Gpulast an, schwankend nach oben.
Edit: Neues Projekt in 4K HDR Rec. 2020, AMD H.265 Encoder, keine Effekte oder Bearbeitung, VCE (Video Codec 1) zu 100% ausgelastet:
@duskstalker
Was du hier schreibst ist extrem einseitig und teilweise schlichtweg falsch. Die Affinity Problematik betrifft mich selbst, aber abseits von Affinity funktioniert OpenCL in all meiner verwendeten Software (z.B: Capture One, Resolve etc.) komischerweise perfekt.
Und die Performance von RDNA 2 in DaVinci Resolve ist sehr gut, war dank der 16 GB VRam einer der Gründe, mich für AMD zu entscheiden:
https://www.computerbase.de/2020-12...w-test/2/#abschnitt_benchmarks_in_anwendungen
Sobald ein paar aufwendigere, GPU-beschleunigte Effekte gerendert werden müssen, ist die Encoding Performance völlig zweitrangig.
In Premiere Pro liegen alle GPUs recht dicht beieinander, selbst eine 2070 Super ist nicht weit von einer 3090 entfernt, was jetzt nicht für die Software spricht. RDNA 2 ist im Computerbase Test auch hier abseits des etwas langsameren Exports knapp auf Augenhöhe.
Zuletzt bearbeitet:
PegasusHunter
Lt. Commander
- Registriert
- März 2004
- Beiträge
- 1.218
Meinst Du das hier ? -> siehe Foto Affinity Version -> !! 1.10.4.1198andronom schrieb:aber abseits von Affinity funktioniert OpenCL in all meiner verwendeten Software
Was funktioniert da nicht ?
Anhänge
menace_one
Lieutenant
- Registriert
- Okt. 2010
- Beiträge
- 1.018
Ja das ist die HDMI Verbindung, die sollte auch mindestens 4:2:2 sein um Dolby Vision für Gaming zu unterstützen.KCX schrieb:Naja, die Geräte bei mir zeigen es zumindest an.
Der Kinofilm kommt trotzdem in 4:2:0 zu dir nach Hause.
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 4.704
- Antworten
- 14
- Aufrufe
- 2.380
- Antworten
- 42
- Aufrufe
- 12.395