Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 AWS S3和AjaXplorer_Amazon S3_File Management_Pydio - Fatal编程技术网

Amazon s3 AWS S3和AjaXplorer

Amazon s3 AWS S3和AjaXplorer,amazon-s3,file-management,pydio,Amazon S3,File Management,Pydio,我正在使用AjaXplorer让我的客户机访问存储在AmazonS3中的共享目录。我安装了SD,配置了插件(),可以上传和下载文件,但上传大小限制在我的主机PHP限制64MB以内 有没有一种方法可以直接上传到S3,而无需通过我的主机来提高速度和S3限制,而无需PHP 谢谢我认为这是不可能的,因为服务器将首先爬升到PHP文件,然后传输到bucket 可能我认为这是不可能的,因为服务器将首先爬升到PHP文件,然后传输到bucket 也许解决这个问题的唯一方法是使用一些JQuery或JS,它们可以完全

我正在使用AjaXplorer让我的客户机访问存储在AmazonS3中的共享目录。我安装了SD,配置了插件(),可以上传和下载文件,但上传大小限制在我的主机PHP限制64MB以内

有没有一种方法可以直接上传到S3,而无需通过我的主机来提高速度和S3限制,而无需PHP


谢谢

我认为这是不可能的,因为服务器将首先爬升到PHP文件,然后传输到bucket


可能

我认为这是不可能的,因为服务器将首先爬升到PHP文件,然后传输到bucket


也许解决这个问题的唯一方法是使用一些JQuery或JS,它们可以完全绕过服务器/PHP,直接流到S3中。这涉及到启用CORS和动态创建签名策略以允许上载,但这是可以做到的

我遇到了这个问题,我们的网站用户使用了一些非常大的媒体文件,我不想再把这些文件放在网络服务器上

IMHO是最好的起点:

这里有一个演示:


这是为了上传+写入文件到各种位置,包括S3。唯一需要技巧的是,为每个特定的上传获取正确的MIME类型,并以您需要的方式获取bucket策略。

唯一的解决方法是使用一些JQuery或JS,它们可以完全绕过服务器/PHP,直接流到S3中。这涉及到启用CORS和动态创建签名策略以允许上载,但这是可以做到的

我遇到了这个问题,我们的网站用户使用了一些非常大的媒体文件,我不想再把这些文件放在网络服务器上

IMHO是最好的起点:

这里有一个演示:

这是为了上传+写入文件到各种位置,包括S3。唯一需要技巧的是为每个特定的上传获取正确的MIME类型,并以您需要的方式获取bucket策略