Netty 在我的服务器处理程序中提供同时/并发请求?

Netty 在我的服务器处理程序中提供同时/并发请求?,netty,Netty,我目前正在使用netty(这是一个很棒的框架!)编写一个代理服务器。我希望能就我目前正在处理的问题提供一些建议/意见: 我的代理服务器正在将HTTP请求重定向到web服务器X。然后,web服务器将HTTP响应发送回代理服务器,代理服务器再将响应转发到相应的客户端 目前,对于发出请求的单个客户机来说,这种方法可以很好地工作。但是,当第二个客户机启动时,代理服务器处理程序的channelRead会依次从web服务器接收响应数据。因此,如果它当前正在接收一个请求的数据流,则第二个客户端发出的第二个请求

我目前正在使用netty(这是一个很棒的框架!)编写一个代理服务器。我希望能就我目前正在处理的问题提供一些建议/意见:

我的代理服务器正在将HTTP请求重定向到web服务器X。然后,web服务器将HTTP响应发送回代理服务器,代理服务器再将响应转发到相应的客户端

目前,对于发出请求的单个客户机来说,这种方法可以很好地工作。但是,当第二个客户机启动时,代理服务器处理程序的channelRead会依次从web服务器接收响应数据。因此,如果它当前正在接收一个请求的数据流,则第二个客户端发出的第二个请求必须阻塞,直到第一个请求完成

我只是想问一下,是否有一种建议的方法可以同时执行此操作

我希望得到任何指导


谢谢大家!

为什么一定要封锁?你能澄清一下吗?诺曼!我从来没有想过你会评论!是的,请让我澄清一下:当前的行为是,在第一个请求得到完全服务之前,对第二个请求的响应将被阻止。我的目标是同时满足这两个要求。代理服务器有一个带有channelRead实现的服务器处理程序,该实现仅逐个从web服务器接收响应数据。请求已写入此服务器通道。请让我知道,如果你需要任何进一步的澄清。非常感谢。基本上,对于如何重构代理服务器设计,使我能够将请求代理到单个web服务器并同时接收响应流以返回到相应的客户端,我将非常感谢您的指导。非常感谢。谢谢你的时间!为什么一定要封锁?你能澄清一下吗?诺曼!我从来没有想过你会评论!是的,请让我澄清一下:当前的行为是,在第一个请求得到完全服务之前,对第二个请求的响应将被阻止。我的目标是同时满足这两个要求。代理服务器有一个带有channelRead实现的服务器处理程序,该实现仅逐个从web服务器接收响应数据。请求已写入此服务器通道。请让我知道,如果你需要任何进一步的澄清。非常感谢。基本上,对于如何重构代理服务器设计,使我能够将请求代理到单个web服务器并同时接收响应流以返回到相应的客户端,我将非常感谢您的指导。非常感谢。谢谢你的时间!