Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/date/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Jmeter 理解线程组属性之间的差异_Jmeter_Performance Testing_Load Testing - Fatal编程技术网

Jmeter 理解线程组属性之间的差异

Jmeter 理解线程组属性之间的差异,jmeter,performance-testing,load-testing,Jmeter,Performance Testing,Load Testing,我已经开始使用jmeter进行分布式性能测试。如果我给出场景1: no.of threads: 10 ramp up period: 1 loop count: 300 由于场景1在300秒内转换为3000个请求,所以一切都运行顺利。i、 每秒10个请求 如果我给出场景2: no.of threads: 100 ramp up period: 10 loop count: 30 另外,scenario2还在300秒内执行3000个请求,即每秒10个请求 但事情开始失败,即服务器面临重负载,请

我已经开始使用jmeter进行分布式性能测试。如果我给出场景1:

no.of threads: 10
ramp up period: 1
loop count: 300
由于场景1在300秒内转换为3000个请求,所以一切都运行顺利。i、 每秒10个请求

如果我给出场景2:

no.of threads: 100
ramp up period: 10
loop count: 30
另外,scenario2还在300秒内执行3000个请求,即每秒10个请求

但事情开始失败,即服务器面临重负载,请求失败。理论上,场景1和场景2应该是相同的,对吗?我错过什么了吗


所有这些都是繁重的调用,在正常负载下,每个调用都需要1-2秒。

在场景2中,10秒后,您有100个并行执行请求,您的服务器可能无法很好地处理或阻止此类负载

并发用户负载测试向web应用程序发送同步的人工流量,以便在持续高负载期间强调基础设施并记录系统响应时间

在场景1中,10秒后,有10个并发用户在流中循环,而不会对服务器造成负载


请注意,您的服务器可能对仅请求特定请求的用户数量有限制。在场景2中,如果有100个用户并行执行请求,则10秒后,您的服务器可能无法很好地处理或阻止此类负载

并发用户负载测试向web应用程序发送同步的人工流量,以便在持续高负载期间强调基础设施并记录系统响应时间

在场景1中,10秒后,有10个并发用户在流中循环,而不会对服务器造成负载


请注意,您的服务器可能对仅请求特定请求的用户数量有限制。在理想情况下,对于场景2,您将每秒有100个请求,测试将在30秒内完成

在第二种情况下,执行时间相同,这表明应用程序处理传入请求的速度不能超过每秒10次

尝试增加第二个场景的启动时间,并查看以下图表:

通常,当您增加负载时,每秒事务数应增加相同的系数,响应时间应保持不变。一旦响应时间开始增长,每秒事务数开始减少,就意味着您通过了测试并发现了瓶颈。您应该报告最大性能点,并调查第一个性能点的原因


更多信息:

在理想情况下,对于场景2,每秒将有100个请求,测试将在30秒内完成

在第二种情况下,执行时间相同,这表明应用程序处理传入请求的速度不能超过每秒10次

尝试增加第二个场景的启动时间,并查看以下图表:

通常,当您增加负载时,每秒事务数应增加相同的系数,响应时间应保持不变。一旦响应时间开始增长,每秒事务数开始减少,就意味着您通过了测试并发现了瓶颈。您应该报告最大性能点,并调查第一个性能点的原因


更多信息:

我们将非常清楚启动时间 以下是官方文件的摘录

场景1:线程数:10 加速期:1 循环计数:300

在上述场景中,将在1秒内创建10个线程虚拟用户。每个用户将循环300次。因此,将有3000个对服务器的请求。无法使用上述配置提前计算。它根据服务器能力、网络等而波动。您可以使用和控制吞吐量

场景2:线程数:100 加速期:10 循环计数:30

在场景2中,在10秒内创建100个线程虚拟用户。100个虚拟用户将同时向服务器发送请求。每个用户将发送30个请求。在第二个场景中,与场景1相比,每秒的请求吞吐量更高。看起来服务器无法同时处理100个发送请求的用户


爬升时间适用于每个线程的第一个周期。它将模拟每个用户在第一次迭代中的第一次请求之间的延迟。

我们将非常清楚启动时间 以下是官方文件的摘录

场景1:线程数:10 加速期:1 循环计数:300

在上述场景中,将在1秒内创建10个线程虚拟用户。每个用户将循环300次。因此,将有3000个对服务器的请求。无法使用上述配置提前计算。它根据服务器能力、网络等而波动。您可以使用和控制吞吐量

情景2: 螺纹数:100 加速期:10 循环计数:30

在场景2中,在10秒内创建100个线程虚拟用户。100个虚拟用户将同时向服务器发送请求。每个用户将发送30个请求。在第二个场景中,与场景1相比,每秒的请求吞吐量更高。看起来服务器无法同时处理100个发送请求的用户


爬升时间适用于每个线程的第一个周期。它将模拟每个用户在第一次迭代中的第一次请求之间的延迟。

你可能是对的,但这对我来说没有多大意义。你能详细说明一下,当爬升周期为10秒时,为什么10秒后我会有100个并发用户?@rplusg ramp up period是所有用户的启动时间,如果你想在1秒内启动所有用户,则设置为1。你可能是对的,但这对我来说没有多大意义。请您详细说明一下,当爬升周期为10秒时,为什么10秒后我会有100个并发用户?@rplusg ramp up period是所有用户的启动时间,如果您想在1秒内启动所有用户,请将其设置为1