Wenn es der falsche Bereich für mein Thema ist, dann bitte verschieben, damit es im richtigen Bereich ist. Danke
Hi,
ich habe ein Verzeichnis mit vielen Dateien mit einer Gesamtgröße von mehr als 20 GByte. Ich habe diese Dateien mit Datenrettung wiederherstellen lassen. Allerdings sind in jedem Unterordner anscheinend ca. 5-6 Duplikate der gleichen Datei vorhanden.
Anstatt diesen 20Gbyte-Ordner manuell zu trimmen, wollte ich es lieber von einem Skript oder einer Software systematisch bereinigen lassen. Die Software sollte CRC-Checksums & Dateigröße prüfen & vergleichen und dann die überflüssigen Übereinstimmungen löschen.
Wieso CRC-Check & Dateigröße? Wenn die bei den Duplikaten nicht gleich sind, dann kann ich diese unterschiedlichen "Duplikate" später vergleichen und das File, was mit weniger Fehlern wiederhergestellt wurde, behalten.
Ich hoffe ihr habt verstanden worauf ich hinaus will und könnt mir bei meinem Problem eine Lösung vorschlagen.
Danke Jungs.
Hi,
ich habe ein Verzeichnis mit vielen Dateien mit einer Gesamtgröße von mehr als 20 GByte. Ich habe diese Dateien mit Datenrettung wiederherstellen lassen. Allerdings sind in jedem Unterordner anscheinend ca. 5-6 Duplikate der gleichen Datei vorhanden.
Anstatt diesen 20Gbyte-Ordner manuell zu trimmen, wollte ich es lieber von einem Skript oder einer Software systematisch bereinigen lassen. Die Software sollte CRC-Checksums & Dateigröße prüfen & vergleichen und dann die überflüssigen Übereinstimmungen löschen.
Wieso CRC-Check & Dateigröße? Wenn die bei den Duplikaten nicht gleich sind, dann kann ich diese unterschiedlichen "Duplikate" später vergleichen und das File, was mit weniger Fehlern wiederhergestellt wurde, behalten.
Ich hoffe ihr habt verstanden worauf ich hinaus will und könnt mir bei meinem Problem eine Lösung vorschlagen.
Danke Jungs.