7700K vs. 6800K in X.264 und X.265

Cool Speed

Lt. Junior Grade
Registriert
Sep. 2013
Beiträge
257
Hallo Zusammen,

ich spiele mit dem Gedanken mein System (CPU, Mainboard, RAM) aufzurüsten und habe fleissig alle Tests zum neuen Intel 7700K gelesen.

Dabei ist mir Etwas aufgefallen, was mir Kopfzerbrechen bereitet und wofür ich keine Lösung finde.

Ich möchte mit dem neuen System Videos konvertieren (Codecs X.264 und X.265 in 1080p und 4K).

Meine Wahl würde auf einen 7700K oder einen 6800K fallen.
Dabei möchte ich von folgenden Werten ausgehen:
7700K -> 5GHz
6800K -> 4.2GHz

Beim studieren der Benchmarks ist mir aufgefallen, dass beide CPUs mit den oben angegebenen Taktraten ungefähr die gleiche Performance besitzen (bezogen auf Videokonvertierung).

Siehe hierzu als Anhaltspunkt:
http://hwbot.org/benchmark/hwbot_x2...Id=processor_5271&cores=4#start=0#interval=20
http://hwbot.org/benchmark/hwbot_x2...Id=processor_4896&cores=6#start=0#interval=20

Müsste aber nicht eine 6 Kern CPU gerade hier mehr leisten können als eine 4 Kern CPU? Beide besitzen SMT und sind auch nicht so weit voneinander in der Taktrate entfernt.

Ich meine in einem Artikel von Intel zum Videocodec X.265 gelesen zu haben, dass man wohl SMT aus schalten sollte, da die Berechnungen aufeinander warten. Ein "echter" Kern wartet dann also auf die Berechnungen eines "SMT" Threads.

Kann dies jemand bestätigen und evtl. den Benchmark mit einem 6800K auf 4.2 GHz ohne SMT durchführen?

Oder hat jemand eine andere Idee für dieses Verhalten?


Zur Vollständigkeit:
- Ich würde von einem 3570K mit 4.3GHz aufrüsten.
- Und ja: Ich warte den Release von Ryzen ab ;)

Vielen Dank für Eure Ideen und Kommentare
Cool Speed
 
Weniger Takt + mehr Threads vs. mehr Takt und weniger Threads.
Sieht für mich erstmal logisch aus.

Wie genau da jetzt aber die Features und Techniken reinspielen weiß ich nicht.
 
x.264/x.265 ist "embarrassingly parallel", d.h. du kannst da so ziemlich Takt x Kerne rechnen ausser es gibt nen neuen Befehlssatz der hilft.
Die hwbot.org Liste ist nur sehr bedingt aussagekräftig weil du ja selbst siehst wie unterschiedlich die Werte sind, wenn eine langsamer getaktete CPU mehr FPS macht, etc.
Dann weißt du nicht wie hier Turboboost und Throttling reinspielt.

Wenn ich die i5 und die i7 Benchmarks ansehe, ist der i7 immer schneller bei gleichem Takt. Also würde ich da kein HT ausmachen.
Den i7-6800k sollte man niemals kaufen wenn übertaktet wird. Wenn man auf Ryzen wartet dann kann man auch gleich auf Skylake-X warten...
 
Würde es sich nicht lohnen, das ganze lieber über die GPU zu machen? Oder unterstützen das deine Programme nicht?
 
Per GPU gehts auch, aber die Qualität soll nicht so gut sein bei gleichen Settings wie bei CPU Konvertierung.
 
Cool Speed schrieb:
Müsste aber nicht eine 6 Kern CPU gerade hier mehr leisten können als eine 4 Kern CPU? Beide besitzen SMT und sind auch nicht so weit voneinander in der Taktrate entfernt.
Das tut sie doch. Laut der Liste da hat ein 6800K bei 4 GHz etwa die gleiche Performance wie ein 7700K bei 5 GHz. Das kommt doch in etwa hin.
Außerdem müsstest du noch den RAM beachten. Hier etwas runtergescrollt die beiden 2500K: Gleiche Leistung mit 4,5 GHz/1600 MHz und 4,3 GHz/2200 MHz.
 
Necareor schrieb:
Würde es sich nicht lohnen, das ganze lieber über die GPU zu machen? Oder unterstützen das deine Programme nicht?

Ich habe schon einige Programme getestet, welche dies unterstützen.
Es geht deutlich schneller. Aber ich kann Spillunkes Aussage bestätigen: Die Qualität und auch die Kompressionsrate ist nicht so hoch wie die Konvertierung über die CPU.

Die Settings kann man leider auch nicht genau so konfigurieren. Vielleicht wird das in Zukunft besser.
Ergänzung ()

powerfx schrieb:
Das tut sie doch. Laut der Liste da hat ein 6800K bei 4 GHz etwa die gleiche Performance wie ein 7700K bei 5 GHz. Das kommt doch in etwa hin.
Außerdem müsstest du noch den RAM beachten. Hier etwas runtergescrollt die beiden 2500K: Gleiche Leistung mit 4,5 GHz/1600 MHz und 4,3 GHz/2200 MHz.

Guter Punkt mit dem RAM. Danke für den Hinweis.
 
ich kann sagen das GPu encoding bei Verwendung von crf kein qualitäts unterschied hat
Leider unterstützt x265 nicht nvenc mit crf
Grob kann man sagen das mehr Kerne was bringen aber man ist maximal bei echtzeit encoding
also 20-24fps bei einen hexa core mit smt
je höher getaktet desto schneller

um auf die GPu encoding zu sprechen. ja es ist möglich gute qualität zu erreichen bei einer vbr qualität und min 2000-20000 k/bits
bei HD
Für FHD benötigt man min 4500-20000 und
uhd ab 10000-30000 leider ist das quasi schon gleich groß wie unter h264
nvenc h264 hat crf und somit keine Qualitätsverluste.
wie das mit OBS aussieht keine Ahnung ob der encoder crf unterstützt.
verlustlos h264 crf 20
verlustlos h265 crf 22
 
Ich sehe zwischen GPU oder CPU keinen Unterschied in der Qualität und habe das für mich ausgiebig getestet. Will mich aber nicht streiten und wenn jemand einen Unterschied sieht, dann ist das auch ok für mich!
Die Größe vom Film ist zu 99% gleich und somit scheint die Kompression auch zu passen.
 
Spillunke schrieb:
Per GPU gehts auch, aber die Qualität soll nicht so gut sein bei gleichen Settings wie bei CPU Konvertierung.

Das wird schon seit einer ganzen Zeit propagiert, aber warum sollte das überhaupt der Fall sein? Dem Quellmaterial ist es doch vollkommen egal, mit wievielen Kernen oder mit welcher Parallelisierungsmethode oder was auch immer gerechnet wird. Solange die Einstellungen die gleichen sind, sollte das gleiche rauskommen. Ich mein, wenn man eine FEM/FVM-Simulation auf der CPU oder der GPU laufen lässt, erwartet man doch auch nicht alleine deswegen verschiedene Ergebnisse.
 
Der GPU-interne Encoder macht eben algorithmisch Dinge anders als der reine Software-Encoder.

Oder denk an einen identischem Algorithmus, bei dem aber einer der zig Parameter anders gesetzt wurde. Nicht nur das Rohvideo sondern auch die zig Parameter sind dann als Eingabe des Algorithmus zu betrachten und ändern das Ergebnis.
 
Zuletzt bearbeitet:
Cool Speed schrieb:
Ich möchte mit dem neuen System Videos konvertieren (Codecs X.264 und X.265 in 1080p und 4K).

Ich meine in einem Artikel von Intel zum Videocodec X.265 gelesen zu haben

x264 und x265 sind Encoder für die H.264 und H.265 Codecs, nicht verwechseln!

Wegen Qualität: beim H.264 mit Handbrake sehe ich den Unterschied ob 2 pass CPU oder Quicksync sofort. Ist aber nicht so dass es mit Quicksync schlecht ist und kommt natürlich auch aufs Rohmaterial an.
Die Frage ist ob das letzte bisschen Quali später z.B. auf dem TV aus 3 Meter Entfernung noch ne Rolle spielt.
Für mich nämlich nicht. Ich lasse eigentlich mittlerweile alles über die GPU encoden, auch ein Grund warum ich meinen 12 Kern Xeon gegen einen i5 getaucht hab.
 
Zuletzt bearbeitet:
h00bi schrieb:
Wegen Qualität: beim H.264 mit Handbrake sehe ich den Unterschied ob 2 pass CPU oder Quicksync sofort. Ist aber nicht so dass es mit Quicksync schlecht ist und kommt natürlich auch aufs Rohmaterial an.
Du müsstest aber noch beachten, dass die Qualität von Quick Sync normalerweise auch eine Größenordnung besser ist, als die von den Nvidia/AMD-Encodern.

Und wenn man's ganz genau nimmt, sind H.264 und H.265 keine Codecs, sondern Standards, nach denen Codecs implementiert werden können (hier etwa AVC und HEVC).
 
Danke für die hilfreichen Antworten/Diskussionen @all.

Als Resultat habe ich beschlossen mich noch ein wenig mehr mit GPU Encoding zu beschäftigen und keine neue CPU zu kaufen.

Ich würde das Thema schließen (Gibts da nen Knopf dafür?)
 
Nö aber wir wissen bescheid
 

Ähnliche Themen

Zurück
Oben