Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/ruby/24.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ruby AmazonS3REST库:如何获取指向永不过期的ressource的链接?_Ruby_Amazon S3 - Fatal编程技术网

Ruby AmazonS3REST库:如何获取指向永不过期的ressource的链接?

Ruby AmazonS3REST库:如何获取指向永不过期的ressource的链接?,ruby,amazon-s3,Ruby,Amazon S3,要检索bucket上ressource的url,我使用: S3Object.url_for('beluga_baby.jpg', 'marcel_molina') 默认情况下,链接在5分钟后过期是否可以请求永不过期的链接? 我想我可以在遥远的将来设定一个有效期,但它看起来有点难看 doomsday = Time.mktime(2038, 1, 18).to_i S3Object.url_for('beluga_baby.jpg', 'marcel',

要检索bucket上ressource的url,我使用:

S3Object.url_for('beluga_baby.jpg', 'marcel_molina')
默认情况下,链接在5分钟后过期是否可以请求永不过期的链接?

我想我可以在遥远的将来设定一个有效期,但它看起来有点难看

doomsday = Time.mktime(2038, 1, 18).to_i
S3Object.url_for('beluga_baby.jpg',
                   'marcel',
                   :expires => doomsday)
附言:我使用ruby库,但我想这个问题适用于所有语言(?)

谢谢你的帮助,
Vincent

对于私人文件,无法获得永不过期的链接

您设置一个遥远的未来到期日的解决方案是正确的方法