在ASP.Net web服务中使用推断.Net模型

在ASP.Net web服务中使用推断.Net模型,asp.net,azure-worker-roles,bayesian-networks,inference-engine,Asp.net,Azure Worker Roles,Bayesian Networks,Inference Engine,我正在Azure中构建一个ASP.NETWebAPI2Web服务,以提供对朴素贝叶斯模型的访问。启动模型有两种模式:从头开始构建模型或加载模型最后保存的状态。后者比前者快,但两者都不接近瞬时。Web服务调用需要立即且近乎无状态。我可以想象将运行模型与web API关联起来的两种方式是使用或使用一个队列,并使用队列在web服务方法和运行的工作者角色之间进行通信 将正在运行的Infer.Net模型与web服务API关联的最佳实践是什么?我找不到Infer.Net标记,我也问过这个问题

我正在Azure中构建一个ASP.NETWebAPI2Web服务,以提供对朴素贝叶斯模型的访问。启动模型有两种模式:从头开始构建模型或加载模型最后保存的状态。后者比前者快,但两者都不接近瞬时。Web服务调用需要立即且近乎无状态。我可以想象将运行模型与web API关联起来的两种方式是使用或使用一个队列,并使用队列在web服务方法和运行的工作者角色之间进行通信


将正在运行的Infer.Net模型与web服务API关联的最佳实践是什么?

我找不到Infer.Net标记,我也问过这个问题