Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ruby on rails 使用dragonfly在rails中保存大文件时应用程序超时_Ruby On Rails_Amazon S3_Dragonfly Gem - Fatal编程技术网

Ruby on rails 使用dragonfly在rails中保存大文件时应用程序超时

Ruby on rails 使用dragonfly在rails中保存大文件时应用程序超时,ruby-on-rails,amazon-s3,dragonfly-gem,Ruby On Rails,Amazon S3,Dragonfly Gem,使用带有蜻蜓扩展名“image\u accessor”的模型保存大文件时遇到问题 我们正在尝试使用fog和excon将文件保存到AmazonS3服务器。在此保存时,我们收到以下错误: A Excon::Errors::Timeout occurred in batch_uploads#upload_file: write timeout reached excon (0.14.2) lib/excon/socket.rb:124:in `rescue in write' 我怀疑这个错误与

使用带有蜻蜓扩展名“image\u accessor”的模型保存大文件时遇到问题

我们正在尝试使用fog和excon将文件保存到AmazonS3服务器。在此保存时,我们收到以下错误:

A Excon::Errors::Timeout occurred in batch_uploads#upload_file:

 write timeout reached
 excon (0.14.2) lib/excon/socket.rb:124:in `rescue in write'
我怀疑这个错误与此有关:但我不能完全肯定


有人对如何推进这项工作有什么建议吗?

这似乎是一个Excon超时。您可以尝试增加设置


谢谢当我把它放在/config/initializers中时,效果非常好
Excon.defaults[:write_timeout] = 500