网络化CUDA GPU

网络化CUDA GPU,cuda,cloud,Cuda,Cloud,在云上的请求/响应场景中,多台低端计算机是否可以分别对位于中央服务器上的GPU进行CUDA调用?使这些低端计算机看起来像是拥有一个“虚拟”GPU。我有一个类似的问题要解决 数据库位于低端计算机中,我在本地网络上有一个GPU集群供我使用 我制作了一个小客户端(在低端机器上)来解析数据库,用序列化数据,并用将它们发送到服务器。对于数据分发,可以使用asynchrouns发布服务器/订阅服务器套接字 在服务器端,您可以反序列化数据,并使用CUDA程序运行计算(它也可以是一个后台应用程序,因此您不必每次

在云上的请求/响应场景中,多台低端计算机是否可以分别对位于中央服务器上的GPU进行CUDA调用?使这些低端计算机看起来像是拥有一个“虚拟”GPU。

我有一个类似的问题要解决

数据库位于低端计算机中,我在本地网络上有一个GPU集群供我使用

我制作了一个小客户端(在低端机器上)来解析数据库,用序列化数据,并用将它们发送到服务器。对于数据分发,可以使用asynchrouns发布服务器/订阅服务器套接字

在服务器端,您可以反序列化数据,并使用CUDA程序运行计算(它也可以是一个后台应用程序,因此您不必每次自己启动它)

一旦服务器上的数据准备就绪,您就可以从客户端发出一条同步消息(请求/回复套接字),当服务器收到消息时,它将调用CUDA内核的函数包装器

如果需要在客户机上处理结果,可以按照相反的路线将数据发送回客户机

如果数据已经在服务器中,那么就更容易了。您只需要使用请求/应答套接字发送消息并调用函数

查看zmq手册,他们有许多编程语言的示例