Jetty 每秒请求的骆驼码头基准测试

Jetty 每秒请求的骆驼码头基准测试,jetty,apache-camel,Jetty,Apache Camel,我正在构建一个高负载http服务,它将每秒消耗数千条消息,并将其传递给activemq之类的消息传递系统 我目前有一个rest服务(非驼峰,非jetty),它接受http客户端的POST并返回一个简单的成功响应,我可以使用ApacheAb对此进行负载测试 我们还将camel-jetty视为输入端点,因为它具有activemq的集成组件,并且在需要时可以作为esb的一部分。在开始构建camel jetty到activemq路由之前,我想测试camel jetty可以支持的负载。我的码头专用路线应该

我正在构建一个高负载http服务,它将每秒消耗数千条消息,并将其传递给activemq之类的消息传递系统

我目前有一个rest服务(非驼峰,非jetty),它接受http客户端的POST并返回一个简单的成功响应,我可以使用ApacheAb对此进行负载测试

我们还将camel-jetty视为输入端点,因为它具有activemq的集成组件,并且在需要时可以作为esb的一部分。在开始构建camel jetty到activemq路由之前,我想测试camel jetty可以支持的负载。我的码头专用路线应该是什么样子

我在想路线

码头:http://0.0.0.0:8085/test)转换(常数(“a”))

并使用apacheab进行测试。 我担心这条路线是否提供了真正的驼峰码头容量,因为转换可能会增加开销。或者不会


基于这些测试,我计划构建http mq,有无camel。

转换API不会增加显著的开销…我只是针对您的基本路由运行了一个测试

ab -n 2000 -c 50 http://localhost:8085/test
并得到以下结果

Concurrency Level:      50
Time taken for tests:   0.459 seconds
Complete requests:      2000
Failed requests:        0
Write errors:           0
Non-2xx responses:      2010
Total transferred:      2916510 bytes
HTML transferred:       2566770 bytes
Requests per second:    4353.85 [#/sec] (mean)
Time per request:       11.484 [ms] (mean)
Time per request:       0.230 [ms] (mean, across all concurrent requests)
Transfer rate:          6200.21 [Kbytes/sec] received

谢谢你,博迪。我也做了测试。我的测试每秒提供的请求比您打印出来的要高得多,可能是因为我的配置更高。我尝试了一个示例netty http服务器,它每秒接受更高的请求。由于我的要求是每秒接受大量http帖子,所以我倾向于这样做。camel netty是否内置了对http的支持?我在网站上找不到这个。