Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Leserartikel Deinterlacing mit QTGMC
- Ersteller michi.o
- Erstellt am
Cappuccio
Cadet 3rd Year
- Registriert
- Nov. 2012
- Beiträge
- 63
Gibt es weitere Erfahrungen und Neuigkeiten zu dem Thema.
Ich habe hier noch etwas dazu gefunden:
http://macilatthefront.blogspot.com/2021/01/deinterlacing-with-avisynth-and-qtgmc.html
Ich habe hier noch etwas dazu gefunden:
http://macilatthefront.blogspot.com/2021/01/deinterlacing-with-avisynth-and-qtgmc.html
Hammer, danke. Ich hatte das Vorhaben alte VHS-C (die wir schonmal mit nem DVD Recorder digitalisiert hatten, aber nicht alle gleich gut, teilweise sind die DVDs nicht mehr gut lesbar..) nochmal gescheit zu digitalisieren. Bin dann sogar dabei gelandet mir einen S-VHS Player mit TBC bei eBay zu besorgen (für S-Video Ausgang), bis mir dann folgendes auffiel:
Bisher alle Grabber (auch intern für PCIe) capturen leider nur in 576p25, interlaced eingebacken, Bewegungsinformationen "weg". QTGMC macht genau das, was ich wollte. :-)
Bisher alle Grabber (auch intern für PCIe) capturen leider nur in 576p25, interlaced eingebacken, Bewegungsinformationen "weg". QTGMC macht genau das, was ich wollte. :-)
michi.o schrieb:[...]
Links in der Liste mit der rechten Maustaste klicken und "Add->Field->Assume" auswählen. Dann öffnet sich ein Popup mit der Frage BFF oder TFF. Ich würde erst mal TFF probieren.
[...]
Mit Vaporsynth existiert "Assume" nicht. Per Menü kann zwar analog dazu "Add -> Field -> Field Base" gewählt werden, jedoch hat dies keinen Effekt, da QTGMC diese Einstellung selbst mitbringt und somit überschreibt.
Um dennoch die Halbbildreihenfolge einzustellen, einfach auf "QTGMC Medium" (bzw. beliebigen Parameter) doppelklicken und die Parameter manuell einstellen:
Bei
SetFieldBase
ist als zweiter Parameter in den Klammern ggf. 1 oder 2 einzutragen.Bei mir stand dort eine 2 für TFF, obwohl die Quelle korrekt als BFF erkannt wurde.
Danke für die Tipps
Zuletzt bearbeitet:
Genau diese Einstellung brachte Probleme bei der Wiedergabe. Darum scheiterte ich auch mit Handbrake ne saubere Wiedergabe hinzukriegen. Hätte es einfach einen weichzeichner interlace so wie die anderen Umwandlungs Programme gehabt wäre auch alles in Ordnung gewesen. Da dies leider nicht der Fall ist, habe ich nach dem ich alle Einstellung einmal durch probiert hatte zu einem anderen Umwandlungs Programm gewechselt gehabt. Handbrake kann einfach nicht gut deinterlacen. Naja da kann man eben nix machen. Ich habe es halt akzeptiert auch wenn ich außerhalb des interlaced handbrake als sehr gut empfinde. So ist es halt bei TV Ausnahmen wo interlaced ist. Das oben und unten brachte nur höhere Latenzen mit sich oder andere unerwünschte Probleme. Ich finde es schade das es so ist aber was will man da halt machen.
JiSiN
Cadet 1st Year
- Registriert
- März 2018
- Beiträge
- 13
Danke für den Tipp.logi schrieb:Mit Vaporsynth existiert "Assume" nicht. Per Menü kann zwar analog dazu "Add -> Field -> Field Base" gewählt werden, jedoch hat dies keinen Effekt, da QTGMC diese Einstellung selbst mitbringt und somit überschreibt.
Um dennoch die Halbbildreihenfolge einzustellen, einfach auf "QTGMC Medium" (bzw. beliebigen Parameter) doppelklicken und die Parameter manuell einstellen:
Anhang anzeigen 1301925
BeiSetFieldBase
ist als zweiter Parameter in den Klammern ggf. 1 oder 2 einzutragen.
Bei mir stand dort eine 2 für TFF, obwohl die Quelle korrekt als BFF erkannt wurde.
Danke für die Tipps
Ich möchte hier noch ergänzen, wenn man die 1 wählt für BFF sollte man auf der 2. Zeile "TFF=False" setzen statt "TFF=True" sonst passt das nicht ganz 🤓
SchnittenGott
Newbie
- Registriert
- Nov. 2024
- Beiträge
- 1
Ich beschäftige mich auch gerade mit dem Thema, meine alten miniDV und Digital8 Kassetten in einem halbwegs vernünftigen Format zu archivieren.
Das native Format (=> die unkomprimierten digitalen Daten) liegen in 720x576 Interlaced vor.
Das Capturing mache ich übrigens mit WinDV, aber das ist ja hier nicht Thema.
Nach umfangreicher Recherche hat sich QTGMC als die mit Abstand die beste Methode erwiesen, um das vorbereitende De-Interlacing durchzuführen.
Unterschied zum Eingangspost (der übrigens toll erklärt war, danke dafür!), ich verwende nicht Virtualdub oder StaxRip, sondern Hybrid.
Der große Vorteil ist hier, daß man nicht alle Filter und Programme von Hand in einen Ordner laden muß, sondern daß in dem Paket bereits alles wichtige enthalten ist.
Dafür ist es natürlich auch größer (=>mit Flatrate vermutlich eh nicht relevant)
Dann als erstes Ein- und Ausgabeordner festlegen. (Config => Paths)
Sehr gut gelöst: Wenn man die Quelldatei ausgewählt hat, wird sie analysiert und der Scantyp wird automatisch erkannt! (Bei Digital8 bzw. miniDV fast immer BFF)
Da ich später einen unkomprimierten Datenstrom als Ausgabe haben möchte (um die Rohdaten dann in Topaz Video AI hochzuskalieren) wöhle ich als Container AVI und als Video FFV1.
In dem Reiter FFV1 ändere ich Version auf 3, der Rest kann so bleiben.
Und dann zum eigentlich wichtigen Teil
Bei Filtering => (De-)Interlace/Telecine wähle ich das Profil "Placebo" (wie so oft gilt auch hier langsamer=besser), QTGMC ist bereits in Hybrid voreingestellt (oben rechts).
Dann mache ich noch ein Häkchen bei Bob (Erklärung praktischerweise ganz rechts im Mouseover ).
Auf diese Weise bleiben alle Bewegungsdaten in den Halbframes erhalten, was für die spätere Verarbeitung wichtig ist!
Und dann zum Schluß setze ich noch im Base Fenster Audio auf passthrough (lasse ich einfach unkomprimiert bzw. unbearbeitet) oder ignore, dann wird nur das Video in die neue Datei übernommen.
Dateinamen festlegen und dann auf den Bauarbeiter klicken => lost gehts!
Bei meinem Rechner (AMD Ryzen 8 Kern) geht die Verarbeitung ca. in Echtzeit, sprich ein 90 Minuten Video benötigt auch ca. 95 Minuten in der Placebo Voreinstellung.
Übrigens: AVISynth braucht deutlich länger, also Vapoursynth hat das Load-Balancing (Verteilung der Aufgaben auf die Threads) deutlich besser im Griff!
Bei Rückfragen einfach fragen
Das native Format (=> die unkomprimierten digitalen Daten) liegen in 720x576 Interlaced vor.
Das Capturing mache ich übrigens mit WinDV, aber das ist ja hier nicht Thema.
Nach umfangreicher Recherche hat sich QTGMC als die mit Abstand die beste Methode erwiesen, um das vorbereitende De-Interlacing durchzuführen.
Unterschied zum Eingangspost (der übrigens toll erklärt war, danke dafür!), ich verwende nicht Virtualdub oder StaxRip, sondern Hybrid.
Der große Vorteil ist hier, daß man nicht alle Filter und Programme von Hand in einen Ordner laden muß, sondern daß in dem Paket bereits alles wichtige enthalten ist.
Dafür ist es natürlich auch größer (=>mit Flatrate vermutlich eh nicht relevant)
Dann als erstes Ein- und Ausgabeordner festlegen. (Config => Paths)
Sehr gut gelöst: Wenn man die Quelldatei ausgewählt hat, wird sie analysiert und der Scantyp wird automatisch erkannt! (Bei Digital8 bzw. miniDV fast immer BFF)
Da ich später einen unkomprimierten Datenstrom als Ausgabe haben möchte (um die Rohdaten dann in Topaz Video AI hochzuskalieren) wöhle ich als Container AVI und als Video FFV1.
In dem Reiter FFV1 ändere ich Version auf 3, der Rest kann so bleiben.
Und dann zum eigentlich wichtigen Teil
Bei Filtering => (De-)Interlace/Telecine wähle ich das Profil "Placebo" (wie so oft gilt auch hier langsamer=besser), QTGMC ist bereits in Hybrid voreingestellt (oben rechts).
Dann mache ich noch ein Häkchen bei Bob (Erklärung praktischerweise ganz rechts im Mouseover ).
Auf diese Weise bleiben alle Bewegungsdaten in den Halbframes erhalten, was für die spätere Verarbeitung wichtig ist!
Und dann zum Schluß setze ich noch im Base Fenster Audio auf passthrough (lasse ich einfach unkomprimiert bzw. unbearbeitet) oder ignore, dann wird nur das Video in die neue Datei übernommen.
Dateinamen festlegen und dann auf den Bauarbeiter klicken => lost gehts!
Bei meinem Rechner (AMD Ryzen 8 Kern) geht die Verarbeitung ca. in Echtzeit, sprich ein 90 Minuten Video benötigt auch ca. 95 Minuten in der Placebo Voreinstellung.
Übrigens: AVISynth braucht deutlich länger, also Vapoursynth hat das Load-Balancing (Verteilung der Aufgaben auf die Threads) deutlich besser im Griff!
Bei Rückfragen einfach fragen
Ähnliche Themen
- Antworten
- 5
- Aufrufe
- 1.007
- Antworten
- 1
- Aufrufe
- 1.496
- Antworten
- 6
- Aufrufe
- 2.965
- Antworten
- 7
- Aufrufe
- 1.181