Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Eine Frage zu den Test(s) im allgemein, zu Ryzen vs Intel. wird QuickSync genutzt?
Ich hätte da mal eine Frage zu den Test(s) im allgemein, zu Ryzen vs Intel. Wird bei Handbrake und x265 HD Benchmark seitens Intel eigentlich Intels QuickSync. genutzt? Bei mir brachte das mal eben fast 2/3 Zeitersparnis bei für mich vergleichbarer Qualität und weniger Auslastung der CPU und daraus resultierend weniger Wärmeentwicklung /(G4560/DivX Pro/1080@H.264 in 1080@H.265).
Wenn es nicht angegeben wird, dann solltest du davon ausgehen, dass alles in Software erledigt wird. Was bei CPU-Tests auch die sinnvolle Variante ist.
Natürlich wird das nicht benutzt, weil es ebenso wie AMDs VCE eine Hardware-de/en-coder ist, welcher nichts über die CPU-Leistung aussagt um die es bei einem Benchmark geht.
Der Vergleich der Encoder untereinander ist rein von der Leistung her auch so eine Sache, weil die Ergebnisse sehr unterschiedlich sein können. Nur mit einem Softwareencoder kommt bei selben Settings das selbe raus
Sehe ich anders, wenn ich anpreise dass ein Ryzen 3 1200 soviel flotter als ein Intel G4560 rendert, dann wäre es absolut fair auch Intel QuickSync einzuschalten. Meine Meinung, man könnte dies ja auch optional testen. @ FreedomOfSpeech nein, schau dir die 3 mal an; https://geizhals.de/?cmp=1558358&cmp=1557514&cmp=1554205 Was die schneller macht ist das Zusammenarbeiten mit der (flotteren) CPU.
Somit relativiert sich das ganze. Wenn das für dich "gut" ist, dann freu dich. Es gibt eben verschiedene Varianten, Videos zu Rendern. Grafikkarten sind noch schneller. Viel bevorzugen aber eben mit den Integer Cores der CPU zu rendern.
... Bei mir brachte das mal eben fast 2/3 Zeitersparnis bei für mich vergleichbarer Qualität und weniger Auslastung der CPU und daraus resultierend weniger Wärmeentwicklung...
Wenn ich re-code, dann will ich das selbstverständlich so schnell erledigt haben wie möglich (denn der nächste Job wartet ja schon).
Wird die CPU dabei aber nicht zu 100% ausgelastet mit dem Job und hat noch Reserven, dann ist das ineffizient und Zeitverschwendung.
Soweit mir bekannt ist sind die Einstellmöglichkeiten (Details & Qualität) mit QuickSync eingeschränkt, im Vergleich zu den Möglichkeiten wie bspw. mit Handbrake.
Ich will also vollständige Kontrolle über den Prozess und bin sehr froh über die gute Threadskalierung von Handbrake... noch schöner wäre nur noch die Einbeziehung der Grafikkarte [ein feuchter Traum... Handbrake auf der Fury-X].
Und wenn man schon Intels QuickSync in den Test einbeziehen will, muss man es mit AMDs VCE ebenso machen. Abgesehen von lustig ausgewürfelten Zeiten für den Encodiervorgang hast du dann aber nichts vergleichbares im "Test" erzielt, denn die Ergebnisse der HardwareEncoder (QuickSync und VCE) müssen dann noch verglichen werden. Und da hilft dann kein subjektives "Sehr bei X besser aus", sondern es müsste Frame für Frame mit einem rein per Softwareencoder erzeugten Referenzfilm vergliechen werden (wie du es von Cinebench mit dem Referenzbild kennst - nur sehr viele davon).
Und als Krönung vom ganzen Aufwand hast du ein Ergebnis des Tests, welches du nur auf eine bestimmte Filmdatei anwenden kannst. Ein anderer Film mit anderer Helligkeitsverteilung oder schnelleren Schnitten und Kamerafahrten kann schon wieder ganz anders aussehen.
Ich habe zum rendern DivX Pro genutzt, mit und ohne QuickSync... was logisch eien HW Geschichte wäre...zumindest verstehe ich das so in Bezug der iGP, ich wüsste aber gerne mal ob mehr Grafikshader auch mehr Tempo bringen, somit und gerade jetzt wäre da der G4600 nochmals interessanter. Persönlich fände ich eben einen test zu den 1200&1300x ( von denen ich eh nix halte btw.) interessant im Vergleich G4560/G4600QSync. Über meine Gtx 1050Ti geht es natürlich nochmals schneller,. auch ist die Qualität nicht schlechter wie ich finde, zumindest solange man hier Qualität nicht pro "MB" gleichzieht, denn das ist ein Manko mit StaxRip verbrauche ich mehr Speicher ais mit oder ohne QuickSync rendern über die CPU. Leider habe ich keinen i5 mehr zur Verfügung sonst würde ich gerne mal Zeit/Watt auf das codieren auf H.265 mit dem G4560 vergleichen.
Wieso Kamerafahrten ? Meinst du die 23fps slow Motion Thematik ? Das ist ja Problem des Players, davon ab kann man ja auch auf 30 frames das Ganze Material fixieren.
"....Abgesehen von lustig ausgewürfelten Zeiten für den Encodiervorgang hast du dann aber nichts vergleichbares im "Test" erzielt....." Doch ich habe einen Wertepunkt erzieht, und kann sehen welche CPU schlussendlich besser werkelt ob mithilfe QuickSync oder VCE. Schlussendlich zählt eben Qualität/Zeit/Speicherverbrauch und Watt, ob das mit Zuhilfenahme der Heinzelmännchen oder Pumuckl bestmöglich umgesetzt wird, ist mir Persönlich völlig gleich.
"....Und als Krönung vom ganzen Aufwand hast du ein Ergebnis des Tests, welches du nur auf eine bestimmte Filmdatei anwenden kannst. Ein anderer Film mit anderer Helligkeitsverteilung oder schnelleren Schnitten und Kamerafahrten kann schon wieder ganz anders aussehen..."
...man kann nie etwas 100% andecken aber einen Mittelwert aus bspw. 3 Filmen bei gleicher Einstellung verglichen AMD/Intel schon. Wenn ich das Ganze so penible sehe, kommen ich nie auf ein Fazit, es gibt auch beim benchen immer mal Unterschiede.... treiber...Temperatur.. und wenn ich es genau nehme so wie du müsste ich dann auch gleich mal die Farb-Kalibrierung der jeweiligen Grafikkarten miteinbeziehen, AMD war zumindest bei mir anders farblich abgestimmt als meine Nvidia jetzt, auf dem Bildschirm.
...nur sehe ich darin keinen Vorteil, wenn ich qualitativ keine Einschränkung mit QuickSync sehe, fällt dies gerade da es HW basiert ist mit in die Gewichtung. Sonst könnte ich auch zugespitzt beim i3 die vKerne abschalten weil ich ja nur auf echte Kerne testen möchte... wäre auch nicht so sinnig schlussendlich.
Apfel mit Birnen Vergleich.
Die virtuellen Kerne sind auch in Hardware und rechnen genau so mit. Das das als Kerne angezeigt wird, ist damit der Scheduler des OS damit umgehen kann. HT/SMT benutzt einfach die Leerlaufzeit der Kerne, während diese auf Daten warten oder aus sonstigen Gründen teilweise gerade nicht arbeiten können (vereinfacht gesagt). Es ist nur eine Technik um die vorhandenen Hardwarekerne mehr auszulasten.
Ein zusätzlicher Video-Encoder ist etwas ganz anderes und durch seine spezialisierte Auslegung nur für wenige Sachen nutzbar. Das geht auch immer mit qulaitativen Einschränkungen Hand und Hand, welche man bei Software-Rendering nicht zwangsweise hat. Der einzige Punkt wo man die Leistung vergleichen kann ist schlicht Software-Rendering.
Du beschreibst selbst dass in den Leerzeiten der sagen wir i3 2Kerne 2 weitere Aufgaben ausgeführt werden sodass es wie 4Kerne wirkt, schlussendlich ist dass ja dennoch kein Echter mehrKern. Für mich ist das auch kein Apfel mit Birnen Vergleich. das eine Ist Hardware das adere softwaremäßig klug umgesetzt. Die Verluste sind eben nicht gegeben mit QuckSync. macht doch mal selbst bitte ein Vergleich, am besten so dass du selbst nicht weißt was wie gerendert wurde.^^ ".... spezialisierte Auslegung nur für wenige Sachen nutzbar. ...." Ja gut, aber was genau tut das denn zur Sache...QuickSync soll ja auch eben nur die eine Sache verbessern..
Ein Hardwareencoder hat einen einfachen primitiven Weg etwas zum Ziel zu bringen. Mehr kommt da nicht raus. Insofern ist er schnell.
Das ist aber kein Anhaltspunkt für die Rendergeschwindigkeit der CPU an sich.
Ein Vergleich wäre nur gegeben, wenn bei Input A, der selbe Output B rauskommt. Das passiert nicht bei dieser Art der Hardwareencodierung und ist damit NICHT vergleichbar für einen Benchmark. Punkt. Aus.
Und nein: 2 Kerne + HT sind nicht 4 Kerne, sondern nur 2 Kerne besser ausgenutzt und damit die Hardware optimiert.
Wenn ich vor der Wahl eines low level cpus stehe nehmen wir mal den G4560 vs Ryzen 3 1200, dann schaue ich mir Zeit/Qualität/Verbrauchten Speicher und Watt-Leistungsaufnahme an, das ist entscheiden für mich, vlt bin ich da ja etwas neben der allgemeinen Spur... und dabei nehme ich auch QSync in betracht, warum auch nicht? Und auch die AMD VCE Variante... Ich zerpflücke die cpu doch nie um zu schauen wie sie was macht... das Resultat aus den genanten Faktoren ist entscheidend, für mich. Danke für die Erläuterung, grob kenne ich das Spiel mit HW Decodierung, die ganzen Android Boxen sowie ARM Prozessoren im Smartphone leben dadurch. Ich weiß zwar nicht wie das mit "Input A, der selbe Output B" gemeint ist, aber wenn ich hingehe und genau festlege wie ein Video auch in der bitrate festgelegt kodiert werden soll dann kann ich nahezu identisches Produkt erwarten cpu unabhängig. Intel Quick Sync ununterstützt den Vorgang ja nur, cpu Kerne/takt ist dabei ebenso wichtig. HW dec. Die ARMs ohne HW dec. für H.265 schauen da aber in die Röhre sieht man am RPi.
Ich habe nie behauptet das vKerne das selbe sind wie "echte" Kerne. Ich schrieb; "...sodass es wie 4Kerne wirkt, schlussendlich ist dass ja dennoch kein Echter mehrKern..."
Hardware-Encoding ist zwar schnell, von der Qualität allerdings bei gleicher Dateigröße schlechter als Software-Encoding. Quicksync hab ich noch nie ausprobiert, da ich noch nie ne CPU hatte, die das kann. Ich kenne allerdings die Hardwareencoder der GTX 960 und der RX 480. Beide produzieren unter Benutzung von Shadowplay bzw. ReLive bei 50 Mbit/s teils sehr deutliche Kompressionsartefakte. x264 hatte bei mir im Very Slow-Preset bereits bei 25 Mbit/s eine nahezu perfekte Qualität erreicht.