C# AWS Beanstalk使用nlp模型读取文件夹的完整路径

C# AWS Beanstalk使用nlp模型读取文件夹的完整路径,c#,amazon-web-services,amazon-elastic-beanstalk,C#,Amazon Web Services,Amazon Elastic Beanstalk,我正在寻找在AWS Elastic Beanstalk中使用我的C#Web API读取文件夹路径的最佳实践和建议。在本地运行代码时,我使用以下方法引用模型: string modelPath = "C:/Data/nlp/models/"; 在弹性豆茎中实现这一点的最佳方法是什么?在部署到Beanstalk的代码中存储大型模型文件和引用的最佳方法是什么?我不想将它们添加到Web API容器中,它们的大小是API本身的500倍 将它放在s3上,并从s3中拉出,作为构建VMThanke you@S

我正在寻找在AWS Elastic Beanstalk中使用我的C#Web API读取文件夹路径的最佳实践和建议。在本地运行代码时,我使用以下方法引用模型:

string modelPath = "C:/Data/nlp/models/";

在弹性豆茎中实现这一点的最佳方法是什么?在部署到Beanstalk的代码中存储大型模型文件和引用的最佳方法是什么?我不想将它们添加到Web API容器中,它们的大小是API本身的500倍

将它放在s3上,并从s3中拉出,作为构建VMThanke you@SamH的一部分。我知道我可以在Beanstalk中从S3进行部署,但是一旦构建了环境,模型实际存储在哪里呢?那条路会是什么样子?另外,每次我推送更新时,这不会仍然推送大型模型文件吗?我希望将它们存储在其他地方,这样它们就不会成为每次部署的一部分。如果您的模型没有太大变化,那么您可能希望将其存储在EBS中,并在每次重新部署时附加该EBS(弹性块存储,我认为是EBS的代表。我认为它就像一个硬盘驱动器,可以插入虚拟机中)模型存储在何处/路径是什么?答:你可以把文件放在某个地方,那就是它的路径。这不是每次部署都会拉动模型吗?是的,但是您的代码被放入s3并在每次部署时都被提取,所以看起来并不是什么大问题。S3到ec2的传输速度很快。但你也应该看看EFS