楼主最近稍有空闲,想把过去几年里分散在几台电脑、硬盘、网盘上的各种乱七八糟的文档、照片等做一些整理,最终目标是建立一个结构化的目录,进行本地+云的备份。 目前主要的痛点: [ol]由于过去不好的备份习惯(比如手机文件直接全盘备份),因此文件分布非常零散,目录很深,需要快速遍历目录,或者干脆一个目录下的所有子文件全部展示出来接 1 ,由于全盘备份很多,因此待整理的目录里会有大量不需要的系统文件,通常体积小,数量很多,需要剔除掉这些文件存在大量重复文件,比如一组照片被备份了几次,分散在不同设备上,需要快速筛选重复文件由于文件较多,包含照片和视频,因此每一组任务的拷贝时间估计都会很长,希望拷贝可以和筛选、剃重等工作同步进行 [/ol] 不知道有没有什么工具或者工作流,可以辅助我完成这个工程呢?
有方案了 @我一下,我也有这个问题。 习惯一样,备份的时候通常直接全盘备份。而且格式还很多( zip, zip+密码, gho, vhd, vhdx, img/raw 等等)。想整理但是每次都因为难度太高放弃了。 另外就是有很多比如 新建文件 1 ,新建文件 2 或者 a.xxx, b.xxx 这种无规律的文件命名