快速去重Linux快速去重:轻松快速地查找重复文件(linux重复文件)

随着容器虚拟化技术的发展,Linux系统上的应用越来越多。在常用的操作系统上,文件夹中有很多重复文件。 如何快速去除重复文件,让文件更加整洁有序,更易于管理和查找?下面就介绍一个方法,希望可以让大家快速便捷的把重复文件清理出去!

首先,准备一个文本文件,这个文件用于存放比对的结果。可以使用touch命令在任何指定的系统路径或文件夹下创建此文件,例如:

touch result.txt

其次,对要比对的文件夹中的每一个文件进行比对,使用find命令搜索包含这个文件特征的文件,并将查找结果输出到结果文件,代码如下:

find ./ -type f -exec md5sum {} \; >> result.txt

运行以上命令,将在结果文件中生成每个文件的md5值,md5值相同证明确实有重复文件存在,接下来只要对输出结果稍作分析,就可以清楚的定位出重复文件了,我们可以使用以下命令:

cat result.txt | sort | uniq -d

输出的结果就是重复文件的相关信息,每行包含一个文件的md5值、文件大小、以及文件路径,如:

9283as65d1adfasdsfadfasdadfasdf 123KB ./dirA/fileA

9283as65d1adfasdsfadfasdadfasdf 123KB ./dirB/fileB

7544b1f34e3e98c72asdadasdasd363 144KB ./dirA/fileC

7544b1f34e3e98c72asdadasdasd363 144KB ./dirB/fileC

有了相关信息后,再通过其他命令,例如rm或者mv等,根据自己的需求删除或移动文件,就可以轻松解决清理重复文件的问题啦!

总结:以上就是使用Linux快速查找重复文件的方法。因为Linux中的指令操作都是很快速的,所以清理比对文件更加 method 便捷,而且可以节省大量的时间。当然,也可以使用其他类似的方法,比如使用Python脚本来搜索重复文件等。总之,清理重复文件也是一个有趣的尝试,建议大家都试试!


数据运维技术 » 快速去重Linux快速去重:轻松快速地查找重复文件(linux重复文件)