Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 将大文件上传到S3而不通过服务器_Amazon Web Services_File Upload_Go_Amazon S3 - Fatal编程技术网

Amazon web services 将大文件上传到S3而不通过服务器

Amazon web services 将大文件上传到S3而不通过服务器,amazon-web-services,file-upload,go,amazon-s3,Amazon Web Services,File Upload,Go,Amazon S3,我正在开发一个web应用程序,允许用户将大文件上传到服务器,我正在使用S3存储这些文件。为了能够上传任何大小的文件,我使用了s3manager.Uploader来简化多部分上传 因为有些文件会很大(~15gb),我想知道是否可以像预签名的URL那样进行操作,但对于多部分上传?我希望避免将数据上传到服务器,然后再上传到S3。理想情况下,我想要一个URL,在那里我可以直接以html形式发布文章,避免使用我的web服务器作为文件的代理。@michael sqlbot是对的。仅仅做文章,每个文件就有5G

我正在开发一个web应用程序,允许用户将大文件上传到服务器,我正在使用S3存储这些文件。为了能够上传任何大小的文件,我使用了
s3manager.Uploader
来简化多部分上传


因为有些文件会很大(~15gb),我想知道是否可以像预签名的URL那样进行操作,但对于多部分上传?我希望避免将数据上传到服务器,然后再上传到S3。理想情况下,我想要一个URL,在那里我可以直接以html形式发布
文章,避免使用我的web服务器作为文件的代理。

@michael sqlbot是对的。仅仅做文章,每个文件就有5GB的限制。如果在上载之前预先签署每个请求,则可以执行多部分上载,这意味着您需要管理文件的拆分,并要求服务器在上载之前签署每个请求


我最终遵循@fl0cke的建议,并使用来管理上传。它完成了所有的文件管理,您只需实现服务器端功能来签署每个文件的请求。

存储区中每个对象的限制是5TB,在这里您可以找到参考

我怀疑预签名表单的可能副本
POST
上传限制为5GB@fl0cke。我认为没有一个简单的答案,因为amazon倾向于设计一些东西,这样协调这些事情的负担就落在了用户身上,这就是他们如何实现规模化的方法。你可能会发现这也解释了他们是如何解决这个问题的(扰流板:有很多代码)@michaelsqlbot你确定吗?还有很多javascript库可以处理上传到S3的操作,及more@fl0cke如果我们谈论的是没有另一个库(“一个我可以直接以html形式发布文章的URL”),那么我有理由相信不会支持更大的库,尽管在文档中很难找到特定于
POST
上传的库。寻找,而不是发现。除了旧的和公认的答案之外,这个答案还有什么贡献吗?虽然这个链接可以回答这个问题,但最好在这里包括答案的基本部分,并提供链接供参考。如果链接页面发生更改,则仅链接的答案可能无效-