Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/jsf/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 s3fs-最大文件大小限制_Amazon S3_S3fs - Fatal编程技术网

Amazon s3 s3fs-最大文件大小限制

Amazon s3 s3fs-最大文件大小限制,amazon-s3,s3fs,Amazon S3,S3fs,我需要一些关于s3fs的解释,因为在实现之后,我有一些棘手的问题 使用默认设置创建bucket后,如何检查bucket设置?这个命令是什么,或者我们应该引用哪个文件 在使用默认设置装载bucket时,我们会遇到一个问题,即创建/上载最大超过20MB的文件。尽管有足够的磁盘空间,但此问题仍然存在。当我们将选项:multipart_size更改为大于10(如20,30)时,我们会增加此限制,但问题是我们不知道此计算规则。你能举个例子吗,这样我们就可以处理这个问题了 s3fs对大于固定大小(默认为20

我需要一些关于s3fs的解释,因为在实现之后,我有一些棘手的问题

  • 使用默认设置创建bucket后,如何检查bucket设置?这个命令是什么,或者我们应该引用哪个文件
  • 在使用默认设置装载bucket时,我们会遇到一个问题,即创建/上载最大超过20MB的文件。尽管有足够的磁盘空间,但此问题仍然存在。当我们将选项:multipart_size更改为大于10(如20,30)时,我们会增加此限制,但问题是我们不知道此计算规则。你能举个例子吗,这样我们就可以处理这个问题了

  • s3fs对大于固定大小(默认为20 MB)的文件使用多部分上载。您正在使用的对象存储似乎不支持此功能,您可以在调试日志中对此进行验证。您应该能够通过
    -o nomultipart
    标志解决此问题。

    s3fs对大于固定大小(默认为20 MB)的文件使用多部分上载。您正在使用的对象存储似乎不支持此功能,您可以在调试日志中对此进行验证。您应该能够通过
    -o nomultipart
    标志来解决此问题。

    请分享您使用的s3fs版本以及写入大文件时产生的错误。通过s3fs-d-f包含调试日志也很有用。在这种情况下,最终通过GitHub提交问题可能比StackOverflow更好。S3FS版本:V1.79(commit:unknown)和GnuTLS(gcrypt)装载命令:#s3fs-o url=OK操作:#dd if=/dev/zero of=upload\u test10 bs=15971520 count=1错误操作:#dd if=/dev/zero of=upload\u test10 bs=45971520 count=1 dd:关闭输出文件“upload\u test10”:操作不允许@andrewgaul请升级到最新版本1.86。1.79已经5年了,并且有许多很久以前就修复过的错误。请分享您使用的s3fs版本以及写入大文件时会发出的错误。通过s3fs-d-f包含调试日志也很有用。在这种情况下,最终通过GitHub提交问题可能比StackOverflow更好。S3FS版本:V1.79(commit:unknown)和GnuTLS(gcrypt)装载命令:#s3fs-o url=OK操作:#dd if=/dev/zero of=upload\u test10 bs=15971520 count=1错误操作:#dd if=/dev/zero of=upload\u test10 bs=45971520 count=1 dd:关闭输出文件“upload\u test10”:操作不允许@andrewgaul请升级到最新版本1.86。1.79已有5年历史,有许多早就修复的bug。