Существует пакет fdupes в Linux (например, он присутствует в debian репозитории). Это использует md5sums и затем байт по сравнению байта для нахождения дубликатов файлов в ряде каталогов. Это также может удалить, копирует с-d опцией, но я никогда не использовал ту опцию. Также Вы можете grep или sed от выходных файлов, чтобы удалить и удалить их из диска.
Вы найдете этот текст unix/linux utils конвейером очень полезный. Эта команда сначала сравнивает размер файлов и если размер, то же затем только сравнивает хеш.
ИЛИ
Можно использовать fdupes утилиту ro, определяют дубликаты файлов.
Оба решения используют хеш md5
liten2
http://code.google.com/p/liten2/ работает также над Mac OSX!
Сценарий Python с довольно многими очень полезными функциями, как пробные прогоны, интерактивный удаляют и больше...
И очень быстро.
pacman
сказанный меня этоrmlint
будет быстрее, чемfdupes
, но я благодарен за :) – Hauleth 09.12.2011, 21:01