Tags 扫描整个站点以查找分析标签

Tags 扫描整个站点以查找分析标签,tags,analytics,Tags,Analytics,我们需要扫描我们的整个网站的某些分析标签,我们担心可能会丢失 有没有什么工具可以让我们以自动化的方式完成这项工作?所以我们不需要手动完成整个过程 我在www.notagsnoglory.com上查看了一个工具,但不幸的是,他们想收取1000美元来扫描独特的标签 谢谢 如果您有对站点的shell访问权限,您可以使用grep命令查找分析标记的可能实例: > cd /path/to/your/site && grep -Rs "[string to search for]" *

我们需要扫描我们的整个网站的某些分析标签,我们担心可能会丢失

有没有什么工具可以让我们以自动化的方式完成这项工作?所以我们不需要手动完成整个过程

我在www.notagsnoglory.com上查看了一个工具,但不幸的是,他们想收取1000美元来扫描独特的标签


谢谢

如果您有对站点的shell访问权限,您可以使用grep命令查找分析标记的可能实例:

> cd /path/to/your/site && grep -Rs "[string to search for]" * | grep -v "[anything you don't want to see]"
例如,如果您正在查找的标记包含字符串“google analytics”,并且您有诸如subversion标记之类的输出噪声,则您的命令可能如下所示:

> grep -Rs "google-analytics" * | grep -v "svn"

希望能有所帮助。

谢谢罗布!不幸的是,我没有这样的访问我的网站。它建立在Interwoven公司称为TeamSite的CMS上。我相信唯一能起作用的是某种爬行软件。否则我们就可以把整个网站都消化掉,也许把它放在Linux系统上,然后按照你的建议去做?是的,你可以用蜘蛛网来抓取它。如果你想以便宜的价格进行爬行,那么在本地机器上你可以使用wget-r。如果客户可以通过客户端代码看到标签,它就会显示标签。如果他们没有我想要的分析标签,我怎么能让wget只下载页面?如果你使用wget,你可能需要下载所有的页面(希望不是不可能的任务),删除所有的垃圾(比如图像等,你知道标签不会出现的地方),然后对你要查找的所有文件类型运行查找,删除所有有标签的文件类型:#find./-name*.html | grep-L[分析标记字符串]| xargs rmHi Rob-我有点Linux新手。所以运行Grep命令将“删除”所有带有标记的页面,只留下没有标记的页面?在Windows或OSX中是否可以这样做?