使用命令行获取页面加载时间-linux

使用命令行获取页面加载时间-linux,linux,curl,time,pageload,Linux,Curl,Time,Pageload,我被一个问题困住了。我有10个URL的列表。我需要计算页面加载时间 我目前正在使用curl获取页面加载时间: 时间旋度www.growingcraft.com 第二种方法: wget www.growingcraft.com 问题是,这给了我下载页面所需的时间,但是: 这个文件还包括Javascript、css和图像吗 什么是对某些图像的外部引用(如本例中所示)。如何计算加载这些图像所需的时间 在Linux中,有没有其他方法可以更有效/准确地计算页面加载时间?试试以下方法: time wget

我被一个问题困住了。我有10个URL的列表。我需要计算页面加载时间

我目前正在使用curl获取页面加载时间:

时间旋度www.growingcraft.com

第二种方法:

wget www.growingcraft.com

问题是,这给了我下载页面所需的时间,但是:

  • 这个文件还包括Javascript、css和图像吗
  • 什么是对某些图像的外部引用(如本例中所示)。如何计算加载这些图像所需的时间
  • 在Linux中,有没有其他方法可以更有效/准确地计算页面加载时间?

    试试以下方法:

    time wget -pq --no-cache --delete-after www.growingcraft.com 
    
    -p
    可以下载所有资源(图像、脚本等)

    -q
    使它安静


    其他选项应该是不言自明的。

    我认为您应该考虑使用apachebench来实现这类功能。谢谢。我将对此进行探讨。这是一个关于服务器故障的问题。你有你的答案:。请考虑删除这个Questin从StaskOfFultFor这对我工作到一定的水平,但不完全。我认为它下载了托管在同一个域中的资源,但是这个网站也有一些图片托管在google drive中。我认为这些都没有考虑在内。我试图用tools.pingdom.com交叉检查结果。我可以看出,所得到的结果有很大差异。但无法理解原因。@AnkitAgarwal oops,您需要-H选项使其跨越外部主机。但是你有一个问题,wget不能并行下载东西,所以你的加载时间会大大增加。您可以尝试aria2之类的工具,但最终会遇到这样的问题:这些工具都无法检测到脚本加载的资源,这确实会影响用户感知的总体加载时间。我真的建议你看看你是否真的想自动化网络性能测试。