Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Der Hersteller alleine sagt gar nichts. Board und Netzteil können billig oder hochwertig sein. 3200 MHz sagt nur alter DDR4 RAM, auch das kann alles mögliche sein. Nenne die konkreten Produkte, dann kann man eine Bewertung machen.
Wenn es rein ums Spielen geht würde ich dem zustimmen. Aber Du hast ja Dein Primäres Augenmerk auf Videobearbeitung da ist es wie beim Auto mit Hubraum. Hubraum ist durch nichts zu ersetzen ausser durch noch mehr Hubraum.
Da DDR4 nahe Talpreis ist, kann man sich gerne 2x32GB gönnen. Ob man die nutzt, hängt von der Software ab, der Größe der Projekte und davon, wie lange man den PC behält.
(2 Ram Riegel sind in wenigen Minuten ausgetauscht.)
Eine B580 wäre zwar nur etwas unter 300€, jedoch deutlich besser. Insbesondere für Videobearbeitung wäre ein AV1 Encoder in Hardware sinnvoll gewesen, über den hier weder CPU noch GPU verfügen.
Das ist jetzt zwar etwas off-topic aber warum ist ein AV1 Encoder bei Videobearbeitung so wichtig? Die GPU Encoder sind super, wenn man etwas in Echtzeit kodieren und streamen möchte. Ein finaler Export wird doch dann sinnvollerweise immer über die CPU gemacht, weil das Ergebnis in Dateigröße pro Bildqualität deutlich besser ist, oder nicht?
Ein HW Decoder ist für die Preview vielleicht hilfreich, aber da wird AV1 auch schon länger unterstützt, u.a. von der RTX3060.
Ich finde es schade, dass die Anforderung "Videoschnitt" immer noch so häufig überlesen wird bei Beratungen. Dann kommen die Leute mit F-CPUs ohne Quicksync von Intel oder mit AMD-Grafikkarten wenn ganz klar CUDA angesagt ist.
Die 3060 ist immerhin noch die günstigste Möglichkeit an eine CUDA-fähige Karte mit 12GB VRAM zu kommen, das P/L Verhältnis zum Spielen ist bei einer 7700 XT natürlich um Welten besser.
Nur hätte der TE für die Kohle eben auch eine Quicksync-fähige CPU sowie eine 4000er-RTX bekommen.
Weil leider nur zu Decodieren einfach nicht reicht.
Willst Du z.B. Livestreamen dann geht nichts über dieses in Hardware zu Encodieren. Ja eine schnelle CPU mit vielen Kernen könnte es auch. Aber dann braucht diese jede Menge Saft und je nach CPU bleibt dann auch nicht mehr viel für andere Sachen. Mit OBS Webcam und Videoanimationen in hoher Auflösung zusammen mit 320Kbs Audio streamen und gleichzeitig im WWW auf deiner Streamingplattform alles unter Kontrolle haben dann wirds per CPU oder Software schnell unschön.
Weil leider nur zu Decodieren einfach nicht reicht.
Willst Du z.B. Livestreamen dann geht nichts über dieses in Hardware zu Encodieren. Ja eine schnelle CPU mit vielen Kernen könnte es auch. Aber dann braucht diese jede Menge Saft und je nach CPU bleibt dann auch nicht mehr viel für andere Sachen. Mit OBS in hoher Auflösung mit 320Kbs Audio streamen und gleichzeitig im WWW auf deiner Streamplattform alles unter Kontrolle haben dann wirds per CPU oder Software schnell unschön.
Danke? Damit hast du mein Argument noch mal wiederholt. Live Encoding => dedizierter Encoder, BEARBEITUNG => CPU.
Abseits davon glaube ich, dass der Threadersteller, der gerade erst frisch mit Gaming begonnen hat, bestimmt nicht direkt eine Streamer Karriere plant Wenn man nicht unbedingt AV1 streamen will kann die RTX3060 das aber auch noch wenigstens in H265/H264.
Ein finaler Export wird doch dann sinnvollerweise immer über die CPU gemacht, weil das Ergebnis in Dateigröße pro Bildqualität deutlich besser ist, oder nicht?
Definitiv ein ganz großes NEIN. Da kommt eine 6 Kern CPU dann ganz schnell ans und über ihr Limit. Ausser Du magst Standbilder ruckeln Audioaussetzer und Abbrüche.
Export nennt man in einer Video-Bearbeitungs-(nicht Streaming)-Software, wenn alle geschnittenen Teile zu einer einzigen Video-Datei im Zielformat gespeichert werden. Das ist nicht live. Das Video-Bearbeitungsprogramm deiner Wahl lässt sich so viel Zeit wie es eben braucht mit deiner Hardware.
Das Ergebnis der finalen Datei ist auf der CPU gerechnet besser als auf der GPU.
Bei Streaming (und da bin ich bei dir) sieht es anders aus. Da braucht man auf Geschwindigkeit spezialisierte Encoder (meistens auf ner GPU, oder auch als Quicksync in der iGPU).
Nicht jeder möchte immer ewig mit der CPU encodieren. Mit einem HW Encoder geht es schnell und effizient. Da lässt eine ganze Videosammlung schnell umcodieren. Geht natürlich auch mit H.265, aber AV1 der aktuelle Standard. Letztendlich ist haben besser als brauchen.
Man hätte sich hier einfach vorher beraten lassen können.
Willst Du Viedeos erstellen mit Bild Audio und noch etwas Schnickschnack dann ist eine Karte die nur Decodieren kann einfach nutzlos. Du solltst jetzt einfach mal versuchst den Unterschied zwischen dem reinen konsumieren/Decodieren und erstellen /Encodieren zu verstehen/erkennen. Wenn nicht dann kann ich mich auch genausogut mit ner Parkuhr unterhalten.
Nicht jeder möchte immer ewig mit der CPU encodieren. Mit einem HW Encoder geht es schnell und effizient. Da lässt eine ganze Videosammlung schnell umcodieren.
Mhh... ja verstehe ich irgendwie. Die AMD Karten hatten ja wirklich nicht die besten Encoder, wobei h.265 bei den RX6000ern annehmbar war, aber die Dateigröße bei etwa gleicher Bildqualität ist nahe an doppelter Größe gewesen. Klar dauert das länger, aber gerade wenn du eine Videosammlung kodierst kostet das ja auch wahnsinnig viel Speicher. Aber ja, kann natürlich jeder machen, wie er mag. Das Encoding tu ich mir auch nur an, wenn ich etwas behalten und archivieren will. Gemessen daran, wie lange ich es behalte, ist mir eine möglichst keine Filesize die Wartezeit wert. Mittlerweile macht das aber auch ein 8-Core Ryzen im "NAS" selbst, da stört es auch keinen.
AMD-Flo schrieb:
Geht natürlich auch mit H.265, aber AV1 der aktuelle Standard. Letztendlich ist haben besser als brauchen.
Definitiv, da bin ich ganz bei dir. Eine modernere Karte wäre beim Schwerpunkt Gaming besser gewesen. Aber günstiger als mit der RTX3060 kommt man aktuell auch nicht an CUDA Cores mit 12GB RAM. Falls der Schwerpunkt also nicht bei Gaming liegt, ist die Wahl zu verschmerzen.
AMD-Flo schrieb:
Man hätte sich hier einfach vorher beraten lassen können.
@BAssDad
Entweder du möchtest mich trollen oder... mh... vielleicht googelst du noch mal "CPU vs GPU Video Encoding", eine Quelle hatte ich weiter oben genannt, auf Reddit findest du aber auch viel User-Erfahrung dazu. Ich denke ich hab gut genug erklärt wofür man CPU und GPU einsetzt. Eine GPU kann ggf. noch Effekte beschleunigen beim Encoding-Vorgang eines statischen Videos, aber das hat dann auch nichts mit dem Encoder/Decoder zu tun, sondern ist "Kernsache".
Im Nachhinein ist halt immer blöd. Er hätte was Besseres für's Geld bekommen und wir stehen da wie Nörgler, weil der TE sich eigentlich über seine Mühle freut und das großartige Witcher 3 zockt. Da kommt dann bei manchen noch Sunk Cost Fallacy / Nachträgliche Begründungstendenz hinzu.
Wie so glaubst Du eigentlich das Softwarerendering per CPU ein besseres Ergebniss liefert wie darauf spezialisierte Recheneinheiten. Im Gegensatz zu einem Encoder in Hardware kann Eine Software Abstürzen oder durch andere Fehlerquellen zum Problem werden. Software braucht Ram und CPU Resourcen die ein Hardwareencoder nicht braucht und somit das komplette Restsystem nicht damit belastet.
Oder frag eine beliebige A.I.:
"Worin unterscheiden sich beim Video Encoding GPU und CPU Encoding bei gleicher CQ in h265?"
...
Naja und meine letzten eigenen Tests mit dem Encoder meiner ehemaligen RX6800 im h265 Codec.
Bei gleicher Quellumwandlung von GoPro 4k 60fps Material war bei gleichen Constant Quality Settings die CPU erzeugte File deutlich kleiner bei besserer Bildqualität als mit dem GPU Encoder.
Die Spezialisierung macht Hardware Encoder schnell und effizient. Effizient heißt hier aber schnell und viel bei verhältnismäßig geringem Stromverbrauch. Effizient heißt hier nicht "bessere Bildqualität". Der in Silizium gegossene Algorithmus wird immer besser von Generation zu Generation, aber er ist nicht so frei mit Bildmaterial umzugehen, wie ein Software Encoder. Die Grenze verschwimmt langsam immer mehr, weil die Recheneinheiten auf GPU sich ja auch "programmieren" lassen, aber noch sind wir nicht so weit.
Mit AV1 könnte ich das jetzt auch langsam mal mit meiner RX9070 testen, aber die Leute auf reddit haben ja auch schon ihre Erfahrungen gemacht und davon machen bestimmt einige deutlich krassere Sachen und sind fachkundiger als ich mit meinen paar Hobby-Sportaufnahmen, die ich archiviere.
Naja und meine letzten eigenen Tests mit dem Encoder meiner ehemaligen RX6800 im h265 codec.
Bei gleicher Quellumwandlung von GoPro 4k 60fps Material war bei gleicher Bitrate die CPU erzeugte File deutlich kleiner bei besserer Bildqualität.
LoL dann mach das mal anstatt auf ner Gamer GPU oder per CPU mit Software mit einer NV Quadro. Dann reden wir gerne weiter. Dazu kommt das die Gamingtreiber gar nicht auf diese Arbeit optimiert sind. Ja sie können es aber auch nicht mehr. Da sind die Treiber einer Quadro ein völlig anderes Kaliber.
Ich frage mich, was wir hier eigentlich diskutieren und ob das nicht vielleicht doch ein Troll-Thread ist. Es wurde ausführlich erklärt, dass das für den Preis wohl ein Fehlkauf sein dürfte, OP sieht das anders und scheint zufrieden, Fragen hat er auch keine. Also ist das Thema erledigt, oder?