我有一个被黑客入侵的网站。我们恢复了它,一切似乎都很好。但谷歌一直说该网站上的一个页面仍在提供恶意链接。但他们不会具体说是哪一页。所以我的问题是,有没有办法下载所有站点文件并进行字符串搜索?
如果可能的话,我想在 localhost 上执行此操作。
我有一个被黑客入侵的网站。我们恢复了它,一切似乎都很好。但谷歌一直说该网站上的一个页面仍在提供恶意链接。但他们不会具体说是哪一页。所以我的问题是,有没有办法下载所有站点文件并进行字符串搜索?
如果可能的话,我想在 localhost 上执行此操作。
我广泛使用这个 bash 函数来进行字符串搜索:
vgrep()
{
find . -name .repo -prune -o -name .git -prune -o -type f -name "*" -print0 | xargs -0 grep --color -n "$@"
}
将此添加到您的 ~/.bashrc 中,然后获取它:
source ~/.bashrc
它将在当前目录中递归搜索字符串,然后打印文件和匹配的行。
vgrep -i "http://suspicious.com" # -i: case insensitive
它接受带有 '' 而不是 "" 的 grep 正则表达式参数。