Jetty 每秒请求的骆驼码头基准测试
我正在构建一个高负载http服务,它将每秒消耗数千条消息,并将其传递给activemq之类的消息传递系统 我目前有一个rest服务(非驼峰,非jetty),它接受http客户端的POST并返回一个简单的成功响应,我可以使用ApacheAb对此进行负载测试 我们还将camel-jetty视为输入端点,因为它具有activemq的集成组件,并且在需要时可以作为esb的一部分。在开始构建camel jetty到activemq路由之前,我想测试camel jetty可以支持的负载。我的码头专用路线应该是什么样子 我在想路线 码头:http://0.0.0.0:8085/test)转换(常数(“a”)) 并使用apacheab进行测试。 我担心这条路线是否提供了真正的驼峰码头容量,因为转换可能会增加开销。或者不会Jetty 每秒请求的骆驼码头基准测试,jetty,apache-camel,Jetty,Apache Camel,我正在构建一个高负载http服务,它将每秒消耗数千条消息,并将其传递给activemq之类的消息传递系统 我目前有一个rest服务(非驼峰,非jetty),它接受http客户端的POST并返回一个简单的成功响应,我可以使用ApacheAb对此进行负载测试 我们还将camel-jetty视为输入端点,因为它具有activemq的集成组件,并且在需要时可以作为esb的一部分。在开始构建camel jetty到activemq路由之前,我想测试camel jetty可以支持的负载。我的码头专用路线应该
基于这些测试,我计划构建http mq,有无camel。转换API不会增加显著的开销…我只是针对您的基本路由运行了一个测试
ab -n 2000 -c 50 http://localhost:8085/test
并得到以下结果
Concurrency Level: 50
Time taken for tests: 0.459 seconds
Complete requests: 2000
Failed requests: 0
Write errors: 0
Non-2xx responses: 2010
Total transferred: 2916510 bytes
HTML transferred: 2566770 bytes
Requests per second: 4353.85 [#/sec] (mean)
Time per request: 11.484 [ms] (mean)
Time per request: 0.230 [ms] (mean, across all concurrent requests)
Transfer rate: 6200.21 [Kbytes/sec] received
谢谢你,博迪。我也做了测试。我的测试每秒提供的请求比您打印出来的要高得多,可能是因为我的配置更高。我尝试了一个示例netty http服务器,它每秒接受更高的请求。由于我的要求是每秒接受大量http帖子,所以我倾向于这样做。camel netty是否内置了对http的支持?我在网站上找不到这个。