Video umwandeln - Welche Grafikkarte ist besser geeignet

nierewa

Lt. Junior Grade
Registriert
Juni 2008
Beiträge
416
Hallo,

ich habe einen PC mit Ryzen 5 3600 und 32GB RAM.
Mit diesem Gerät möchte ich *.ts Filme zu H256.mp4 umwandeln.

Ich frage mich, welche GPU dazu besser geeignet ist.

1. NVidia GeForce GTX 1060 3GB
2. MSI Armor 8G OC

Vielen Dank
 
Die besten Ergebnisse gibts mit CPU, schnell und Rotzig am besten mit der 1060.

Oh WARTE!
Falsch!
Ergänzung ()

nierewa schrieb:
Also bleibt nur CPU Die graka ist dabei dann komplett Wumpe, weil die nur dein Bild für den Monitor generiert, das gann auch ne igpu.

Edit:
hab nochmal geschaut, laut Nvidia können die 1060 das doch, hätte nicht gedacht, das der schon drin ist. also ja, ertster Satz gilt doch :-)
https://developer.nvidia.com/video-encode-and-decode-gpu-support-matrix-new
 
Zuletzt bearbeitet:
was hält dich davon ab das auszuprobieren?
Wenn es um Qualität geht würde ich CPU empfehlen. Bei gleichen Einstellungen besseres Bild und kleinere Datei.

PS:
Es gibt kein H256
Ergänzung ()

@Alexander2 beide einer GPUs können H.265 encoden.

Es kommt halt auch auf das ursprungsmaterial an ob man zwischen GPU und CPU einen unterschied sieht. Ich schätze mal bei matschigen SD-Videos sieht man keinen großen unterschied.
 
Zuletzt bearbeitet:
nierewa schrieb:
2. MSI Armor 8G OC
Was für ne Grafikkarte ist das denn bitte? Ne RX 580 oder ne RX 570? Oder evtl. sogar ne GTX 1080?
Gabs alle jeweils als "Armor 8G OC".

Bitte zukünftig etwas mehr Sorgfalt bei den Hardwareangaben, wenn du wirklich Hilfe/Beratung erhalten willst.
 
nierewa schrieb:
GPU dazu besser geeignet ist
Vielleicht ist das Video ja dazu interessant. Danach haben die 1000er GPUs nur eingeschränkten Feature Support, was wohl zu schlechterer Qualität führt.

 
Wenn Dein Ausgabegerät AV1 unterstüzt, nimm das. H265 ist schon wieder 'veraltet' :-)

Ansonsten mal mit Handbrake ausprobieren, einmal über GPU und einmal mit CPU... ich würde immer CPU nutzen, über die GPU gehts zwar schneller, sieht aber schrottig aus und die Dateien werden viel zu groß.
 
  • Gefällt mir
Reaktionen: Alexander2
wern001 schrieb:
beide einer GPUs können H.265 encoden.
Ich habe gerade gesucht bei Radeon erst war bei 6000er gen zu h265 gefunden, bisher habe ich aber auch kein gute übersicht gesehen.

Edit:

VCE 3.0​

Video Code Engine 3.0 (VCE 3.0) technology features a new high-quality video scaling and - since version 3.4 - High Efficiency Video Coding (HEVC/H.265).<a href="https://en.wikipedia.org/wiki/Video_Coding_Engine#cite_note-10"><span>[</span>10<span>]</span></a><a href="https://en.wikipedia.org/wiki/Video_Coding_Engine#cite_note-11"><span>[</span>11<span>]</span></a>

It, together with UVD 6.0, can be found on 3rd generation of Graphics Core Next (GCN3) with "Tonga" and "Fiji" (VCE 3.0) based graphics controller hardware, which is now used AMD Radeon Rx 300 series (Pirate Islands GPU family) and VCE 3.4 by actual AMD Radeon Rx 400 series and AMD Radeon 500 series (both Polaris GPU family).

Also die 400er Radeon können auch h265 anscheinend als erste Karten.
 
Zuletzt bearbeitet:
Es hängt auch davon ab, wofür man überhaupt kodiert. Die Encoder von Nvidia/AMD sind primär fürs Streaming gedacht, also optimiert für hohe Performance, nicht Effizienz.
 
Alexander2 schrieb:
bisher habe ich aber auch kein gute übersicht gesehen.
https://en.wikipedia.org/wiki/Nvidia_NVENC
https://en.wikipedia.org/wiki/Video_Core_Next
Amaoto schrieb:
also optimiert für hohe Performance, nicht Effizienz.
Muss man glaube ich anders formulieren:
Sie sind auf Performance und Effizienz im Sinne des Stromverbrauches und Rechenzeit optimiert.
Aber die Qualität der Kompression reicht nicht an Softwarekompression heran, legt man dieselbe Datenrate zu Grunde.
 
  • Gefällt mir
Reaktionen: qiller und Alexander2
motorazrv3 schrieb:
Vielleicht ist das Video ja dazu interessant. Danach haben die 1000er GPUs nur eingeschränkten Feature Support, was wohl zu schlechterer Qualität führt.


Was für ein schwachmat ist das in dem Video?
Der stellt das auf QR 30 und jammert dann das Details verloren gehen.
Auch die Voreinstellung auf UltraFast tztztzt. Dem Typ müste man eine Watschen geben und wenn er frägt wieso gleich nochmal!
hier mal die Empfehlung von Handbrake (h.264 und h.265 haben das gleiche Tooltip)

1736251879673.png


Es gibt auch Leute die jpgs zu tode komprimieren und jammern das Details verloren gehen und kompressions Artefakte entstehen.

der nvidia encoder neigte bei den alten GPUs oft zu colorbanding bei feinen Farbabstufungen (z.B nebel) wenn man mit 8 bit encodete mit 10 bit (größere Datei) waren die weg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hakto und Alexander2
30 ist wirklich abseits von benutzbarem :D da bekommst euach mit software Pixel matsche bei raus.
Ergänzung ()

Und audio codec will er mit mp3 :D
 
Hauptsache klein offensichtlich!

Danke mal an alle für die infos! Ich habe hier direkt was gelernt! Also wenn man Zeit hat ruhig Software encoding nutzen!

Gilt das bei jedem codec? Oder ist die Qualität bei x264 eventuell besser bei gleichen Einstellungen? Klar werden sie dann größer.

Gilt das für alle GPUs und Codecs? Also egal ob iGPU oder dGPU und auch egal ob x264, h265 oder AV1?

Danke euch schonmal und sorry für den highjack :-D
 
Der_Dicke82 schrieb:
Gilt das bei jedem codec?
Ja, wobei es je nach Codec Ewigkeiten auf entsprechender Hardware dauert. AV1 in Software auf einem Zen2 Sechskerner, puh. Da braucht man Geduld. Da würde ich an deiner stelle HEVC aka H265 nehmen.
Der_Dicke82 schrieb:
Oder ist die Qualität bei x264 eventuell besser bei gleichen Einstellungen?
Nö, HEVC ist besser bei "gleicher" Größe. Und ein guter Kompromiss bezüglich Rechenaufwand.
Der_Dicke82 schrieb:
Gilt das für alle GPUs und Codecs? Also egal ob iGPU oder dGPU und auch egal ob x264, h265 oder AV1?
Was genau? Die Hersteller haben meist die exakt gleichen Schaltungen in der APU/iGPU wie auf den Grafikkarten derselben Generation.
 
  • Gefällt mir
Reaktionen: Der_Dicke82
Der_Dicke82 schrieb:
Zum Beispiel beim oft gelobten Quicksync von Intel oder bei neueren GPUs
Je neuer, desto besser.
Der_Dicke82 schrieb:
Oder gilt generell immer das der Software Algorithmus besser ist.?
Noch gilt das, der Abstand wird aber mit jeder Generation kleiner. Bei der aktuellen von Intel (B580:daumen:) würde ich sagen, machs damit zu AV1 und fertig. Da ist der Unterschied so gering das es ziemlich egal ist, der Rest wird durch den besseren Codec kompensiert.
 
  • Gefällt mir
Reaktionen: Eisenoxid, nutrix und Der_Dicke82
Bei amd kannstes auch bei den neuen Karten mit av1 machen. Das ist schon ziemlich gut (anders als die h264 implementierungen waren - die waren nicht so gut im Platz/bild verhältnis)

Edit:
Also mein Einsatzzweck wäre da auch keine Archivierung.. sowas brauch ich nicht. ich hätte am ehesten mal bedarf etwas klein zu Bekommen, damit das in möglichst schöneer Quali aber auch flott umgerechnet Mobil dann ohne Internet geschaut werden kann...

und da würde ich in jedem fall av1 von meiner radeon nutzen, ist schnell und wird klein.
 
Was für ne Grafikkarte ist das denn bitte? Ne RX 580 oder ne RX 570? Oder evtl. sogar ne GTX 1080?
ne RX 570 8GB RAM

Die besten Ergebnisse gibts mit CPU, schnell und Rotzig am besten mit der 1060.
Das die besten Ergebnisse mit CPU erreicht werden ist klar.
Wenn ich die GPU benutzen wöllte wäre die Nvidia also besser?
Trotz weniger RAM?
 
Zuletzt bearbeitet:
der ram ist egal.
der en-/decoder ist ein seperater Teil auf dem GPU Chip. Der Teil läuft nicht mal synchron mit dem normalen GPU-Takt.
 
nierewa schrieb:
Wenn ich die GPU benutzen wöllte wäre die Nvidia also besser?
Trotz weniger RAM?
Wo ist das Problem, mal ein Testvideo durch die beiden Karten zu jagen und selber im Taskmanager zu beobachten, dass das VRam völlig egal ist. Bzw. sein müsste, wer weiss, was Du neben dem Encoder noch alles auf der GPU parallel laufen lässt, am Ende kommt noch ein KI-Deinterlacer und Upscaler für 1080i Videos zum Einsatz.

Jedenfalls gab es bei mir weder mit der GTX 1060 6 GB noch mit der RTX 4070 12 GB irgendwelche Probleme mit dem VRam mit h.265. Die Qualität ist halt mit der 4070 bei gleicher Bitrate und angepassten Settings etwas besser, aber noch (bei gleicher Bitrate/Dateigröße) meilenweit vom SW-Encoding entfernt. Mit reicht es, um die TV-Aufnahme schnell klein zu quetschen und danach offline im Zug am Tablet anzusehen, aber für mehr auch nicht (außer, man spendiert extreme Datenraten, dann kann ich aber auch fast das Original behalten).

nierewa schrieb:
Geht das mit Handbrake
Sieht so aus:
https://www.heise.de/news/Video-Tra...ardwarebeschleunigte-AV1-Encoder-9534753.html
 
Zurück
Oben