我有一个基于不同格式文件的实时数据流。数据通过网络传输并写入目录层次结构中某些子目录中的文件。从那里拾取并进一步处理。我想重播这个数据流的一天,用于测试和模拟目的。我可以将一天的数据流复制到另一台机器上,并以这种方式“记录”它,只是让文件堆积起来而不处理或移动它们。
我需要一些简单的东西,比如 Perl 脚本,它需要一个基本目录,查看子目录中所有包含的文件及其创建时间,然后在一天中的同一时间将文件复制到不同的基本目录。
简单示例:我有文件a/file.1
2012-03-28 15: b/file.2
00、2012-03-28 09: c/file.3
00、2012-03-28 12:00。如果我在 2012 年 3 月 29 日 08:00 运行脚本/程序,它应该睡到 09:00,复制b/file.2
到../target_dir/b/file.2
,然后睡到 12:00,复制c/file.3
到../target_dir/c/file.3
,然后睡到 15:00 并复制a/file.1
到../target_dir/a/file.1
.
这样的工具是否已经存在?看来我缺少正确的搜索关键字来找到它。
环境是Linux,命令行首选。有一天,它会包含数千个文件,总共只有几 GB。时间不必非常精确。第二个分辨率会很好,分钟分辨率就足够了。