对于这个问题,我不太确定这是否是正确的堆栈交换站点,但我发现没有哪个站点更适合这个问题
我计划在我的下一个项目中使用S3,但我不确定存储的价格是如何计费的。如果我使用S3只是为了输入千兆字节的数据,而几乎从不删除数据,我就不会有问题了。但事实并非如此
如果我在S3中存储一个1兆字节的文件,在1小时后将其删除,然后将另一个1兆字节的文件放到S3中,会怎么样?我将为当月的1兆字节存储计费,还是2兆字节
亚马逊表示:
使用的前1 TB/月存储容量
我不认为他们会在月底对存储在我S3账户上的东西开账单,
什么是能够很好地容纳流数据的云数据存储API
具体地说,一个恒定的数据流:1)没有已知的结尾,并且不断地附加到该数据流中;2)可以随时从中读取
由于分布式访问的性质,大型云存储选项(如Amazon S3、面向开发人员的Google存储和Windows Azure Blob)似乎不支持流式数据
当前信念:
1) AmazonS3不允许向对象追加操作(仅替换)。多部分上传API允许“流式”上传,但它需要在完成编写后“最终”完成
2) 谷歌存储对象是不可变的,所以也是一样
3) Windows Azu
根据AWS文件,我了解到:
S3键名称可以是任何小于1024个字符的UNICODE名称
当使用GET OBJ时,我需要对密钥名称进行URL编码以访问它
然而,这些规则似乎过于宽松
例如,如果我创建了一个名为“../../d”的键,当我尝试使用GET OBJECT API访问它时,会发生400错误。有趣的是,我在访问“../d”时没有问题
是否有文件规定哪些是合法的,哪些不是合法的?亚马逊提供的唯一限制是(见其网站):
存储桶或对象名称中允许哪些字符?
密钥是一个Unicode字符序列,其UT
我设置了一个Amazon ElasticMapreduce作业来运行配置单元查询
CREATE EXTERNAL TABLE output_dailies (
day string, type string, subType string, product string, productDetails string,
uniqueUsers int, totalUsers int
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
LINES TE
我有一个关于aws上hadoop access s3的问题
<property>
<name>fs.default.name</name>
<value>s3n://testhadoophiveserver</value>
</property>
<property>
<name>fs.s3n.awsAccessKeyId</name>
<value>I have fill
我知道S3没有文件夹,我正在使用一个继承的应用程序,它的一些存储桶中填充了文件夹\名称\文件夹\项目。我知道很多不同的工具使用这些文件或其他文件夹符号(取决于工具)来帮助将“文件夹”表示为各种可视界面。我想知道哪一个使用这种特殊的惯例
我想删除它们,以便我的各种rake任务能够更快地运行文件列表,但我担心我最终会破坏公司其他人使用的一些工具。谁能说出哪些工具创建了这些键,以及删除它们会破坏哪些功能(如果有的话)?狐狸?AWS主控制台?文件夹$folder是用S3Fox创建的,AWS控制台不创建它
我有一个桶,里面有两种文件名:
[Bucket]/[file]
[Bucket]/[folder]/[file]
例如,我可以:
MyBucket/bar
MyBucket/foo/bar
我想将所有[Bucket]/[folder]/[file]文件重命名为[Bucket]/[file]文件(从而覆盖/丢弃[Bucket]/[file]文件)。
因此,与前面的示例一样,我希望MyBucket/foo/bar变成MyBucket/bar(并覆盖/duscard原始的MyBucket/bar)
我
我在S3上有一个JSON文件,我正在使用NSURLConnection通过HTTP下载。我将连接设置为使用NSURLCacheStorageNotAllowed的缓存策略,但仍然看到数据的旧版本返回。我改为NSURLRequestReloadIgnoringLocalAndRemoteCacheData,缓存行为正常
有人能解释一下原因吗?到今天为止,看起来nsurlRequestReloadIgnoringLocal和RemoteCacheData实际上什么都没做。从OS 10.9.1中的NS
我想使用AmazonS3 bucket作为独立文件夹。我可以创建多少限制计数桶 我是关于
bucket由创建它的AWS帐户拥有每个AWS帐户一次最多可拥有100个存储桶。存储桶所有权不可转让;但是,如果bucket为空,则可以将其删除。删除存储桶后,该名称可供重用,但由于各种原因,该名称可能无法供您继续使用。例如,其他一些帐户可以使用该名称创建一个bucket。因此,如果要使用相同的bucket名称,请不要删除该bucket。请注意,重新使用该名称可能需要一些时间
你应该考虑添加前缀(人们错误地
我计划使用GCE集群和gsutil将约50Tb的数据从AmazonS3传输到GCS。到目前为止,我有一个很好的方法来分配负载,不管我需要使用多少实例,但是与我使用本地集群所获得的传输速率相比,我的传输速率非常慢。下面是我正在做的事情的细节
实例类型:n1-highcpu-8-d
图像:debian-6-Squence
作业期间的典型平均负荷:26.43,23.15,21.15
70gb测试的平均传输速度(对于单个实例):~21mbps
平均文件大小:~300mb
.boto进程计数:8
.bot
让我解释一下我的要求
我想将(客户端)上传到我的应用程序的文件存储到Amazon S3
文件大小~1-10 MB
但是,客户端接口必须是RESTAPI
由我的申请提供。因此,在解析文件上传(HTTPPOST)请求之后,我的应用程序必须将文件存储在S3中
因此,在上传到S3之前,我必须将文件临时存储在磁盘上
有解决办法吗?我可以取消服务器上的临时文件存储吗。。如果我不清楚,请告诉我
编辑-可以从FileItem对象获取字节数组并存储它而不是文件本身吗?您的全部想法是避免I/O,对吗?在上传之前不需
我想将一个文件从文件系统同步到s3
这是可能的还是只能同步目录?您可以将S3存储桶装载为本地文件夹(例如使用),然后使用您喜爱的工具同步文件(-s)或目录。使用sync directory命令的include/exclude选项:
e、 g.要仅将/var/local/path/filename.xyz同步到S3,请使用:
s3 sync /var/local/path s3://bucket/path --exclude='*' --include='*/filename.xyz'
对于在W
SDK的具体用途是什么?仅适用于谷歌硬盘、box或dropbox等存储设备?或者我可以使用存储的脚本运行完整的网站吗
SDK的具体用途是什么
可以使用编程方式控制几乎所有方面的每个方面
仅适用于谷歌硬盘、box或dropbox等存储设备
是一种仅存储的服务。它补充了过多的其他AWS服务
或者我可以使用存储的脚本运行完整的网站吗
为此,您需要一个服务器。我建议先看一看,因为这可以说是最快的运行方式。如果你正在寻找更具控制力的东西,你可以去看看
如果需要原始虚拟服务器,请查看。如果您想构建一个模板,
EMR服务器是否允许删除和更新DynamoDB记录/文件,我听说它只允许通过弹性映射还原(EMR)进行读取和分析。您可以使用Hive从EMR写入DynamoDB。尝试按如下方式定义表,然后运行任何有效的INSERT语句
CREATE EXTERNAL TABLE dyndb_table_name(
[col_name] [type],
...
)
STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler'
TBLP
我一直在寻找将推送通知配置为S3门户中的警报通知器的方法,我尝试了SNS通知,我创建了一个通知主题,我在我的bucket中创建了与SNS ARN关联的策略,但策略生成器无法识别SNS ARN链接。。。。老实说,我不知道怎么做,我需要帮助。我只想在有人登录IAM登录网页时接收电子邮件,在IAM用户下载文件时发送电子邮件
不,当用户从Amazon S3下载对象时,不可能触发事件。事件仅在添加新对象或丢失对象时生成
见:
如果希望在有人访问文件时发送通知,则需要自己处理下载请求。也就是说,用户将需要使
我在这个问题上纠结了一段时间,似乎不知道出了什么问题。
我试图递归地将本地目录(在我的mac上)推送到我的S3帐户。我一直在跟踪,在使用sync命令时遇到了问题
我试着先运行这个来设置s3cmd上的凭证
s3cmd --configure
#It asks for the following...
#supply my access key
#supply my secret key
#set Default region
#encryption password - leave blank
从读取中可以看出,它似乎不支持给定URL的路径部分中的通配符。这似乎是一个疏忽,因为许多CDN和静态文件托管提供商在其用户之间共享根域名,并且只区分URL路径而不是整个域的访问
例如,当使用S3或Google云存储作为CDN时,您可能希望CSP允许使用通配符URL(如“*”)从您的bucket加载脚本/资产,但在剩余时间内不允许加载,因为恶意参与者创建自己的帐户并从该根域提供内容是非常简单的
这似乎是一个非常常见的用例,我是否误解了规范?如果不是,那么使用通配符路径的语法是什么,比如使用Cont
我运行一个流行的网站,用户可以上传和删除图片到他们的帐户。目前,我的网站托管在2台linux服务器、一台web服务器和一台数据库服务器上
由于流量增加,我需要升级以使用2台web服务器。问题是我的web服务器上有2TB的图像,这些图像会不断添加和删除
我们被告知,最好的方法是使用AmazonS3存储图像,使用cloudfront交付图像,而不是在Web服务器之间同步图像
我根据2TB的存储、200万个月的put请求和8000GB的数据传输计算了成本,每月的成本约为1000美元。与现在的成本相比,
因此,每当s3存储桶添加或删除文件时,我想在我的rpi上设置一个gpio pin。我目前有一个lambda函数设置为在发生这种情况时触发。现在的问题是让函数设置标志。我目前在lambda函数中拥有的是这个。但我的设备上没有任何东西。我的最终目标是,每当在没有任何用户输入或cron作业的情况下添加或删除文件时,让我的rpi上的文件夹与bucket保持同步
import json
import boto3
def lambda_handler(event, context):
clien
有没有办法将像epub/mobi这样的大型电子书(100MB以上)上传到亚马逊
我已经尝试上传到Amazon,但它说文件超过了20MB。像这样的工具正是您所需要的
S3cmd是一个免费的命令行工具和客户端,用于在Amazon S3和其他使用S3协议的云存储服务提供商(如Google cloud storage或DreamHost DreamObjects)中上载、检索和管理数据。它最适合熟悉命令行程序的高级用户。它还非常适合批量脚本和从cron等触发的到S3的自动备份
下面是一个简单的例子:
s
我试图通过实例的userdata属性将一个文件从S3 bucket下载到实例。但是,我得到了一个错误:
调用HeadObject操作时发生客户端错误(301):
永久搬家
我使用IAM角色、托管策略和实例配置文件为s3 bucket提供实例可访问性:
我尝试使用userdata属性中的以下行下载该文件:
aws s3 cp s3://mybucket/login.keytab
目的地目录/
你有没有想到哪里出了问题?如果我将文件公开,然后从命令行使用wget,我可以成功下载该文件,但由于某些原因
当我使用flinks流式API写入S3时:
// Set StreamExecutionEnvironment
final StreamExecutionEnvironment env =
StreamExecutionEnvironment.getExecutionEnvironment();
// Set checkpoints in ms
env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);
// Add sou
我正在尝试将一个文件上载到S3,并使用JavaSDK为其设置过期日期
这是我得到的代码:
Instant expiration = Instant.now().plus(3, ChronoUnit.DAYS);
ObjectMetadata metadata = new ObjectMetadata();
metadata.setExpirationTime(Date.from(expiration));
metada
我是Apache camel aws的初学者。我正在编写一个程序,使用ApacheCamel将文件从一个aws s3存储桶传输到另一个存储桶。现在我想记录从s3中选取的文件/对象名。你能帮我做同样的吗?下面是我的代码片段。
${file:name}适用于camel FTP组件,希望了解其在aws中的等价物
from("aws-s3://sourceBucket?amazonS3Client=#amazonS3Client")
.log("The following
我有一个.jpg文件存储在S3中,并使用CloudFront分发。我可以在下载时查看该文件,但无法在Chrome或Safari中查看该文件。据我所知,我无法在浏览器中查看该文件,因为尽管我在S3中设置了内容类型,但该内容类型未被发送
您可以在浏览器中输入此签名的CloudFront url时看到发生了什么。在这篇文章发表后,它应该在大约24小时内保持有效 看起来原始图像是TIFF文件,而不是JPEG。这就是为什么你不能在浏览器中看到它,但可以在下载时打开它。如果查看响应标题,则Cloud
假设我有一个S3托管的网站。除此之外,我还有一个EC2,可以接收来自该网站的http请求。有没有一种方法可以设置一个安全组,以便EC2只能从该网站接收http请求?我知道,如果该网站托管在另一个EC2上,我可以使用IP地址或负载平衡器,但我不确定在S3网站的情况下如何操作。当您在S3上启动网站时,您将获得所有静态前端内容(就像本地机器上没有Web服务器的纯HTML/CSS/Javascript网站一样)。意味着指向EC2实例的所有调用、XHR或嵌入式资源都是由访问者浏览器生成的请求,它们的IP来
恐怕我根本不明白这是怎么回事。弹弓怎么知道找到我s3水桶的地址?这完全由访问密钥决定吗
这是我在server/files.js中的代码:
var imageDetails = new Mongo.Collection('images');
Slingshot.fileRestrictions("myImageUploads", {
allowedFileTypes: ["image/png", "image/jpeg", "image/gif"],
maxSize: 2 * 1024
我正在处理一个需求,在这个需求中,我必须不断地将文件附加到S3 bucket上。该场景类似于滚动日志文件。一旦脚本(或任何其他方法)开始将数据写入文件,直到我停止它,文件应该附加到S3 bucket上。我找了好几种方法,但都找不到解决办法。大多数可用资源都说明了如何将静态文件上载到S3,而不是动态生成的文件。S3对象只能被覆盖,不能附加到S3。这是不可能的
一旦创建,对象将被持久存储且不可变。对对象的任何“更改”都需要替换该对象
虽然可以将文件流式传输到S3中,但这也不能达到目的,因为在上传完成
我最近已将AWS Java SDK依赖项升级到其最新版本1.11.x,用于S3请求。现在,我如何确定请求是使用SigV2还是SigV4签名
标签: Amazon S3
amazon-cloudfrontamazon-elastic-beanstalk
我的Elastic Beanstalk应用程序上有两个端点:
首先,我设置了Cloudfront并链接到我的URL。
第二个是我的Elastic Beanstalk应用程序的设置位置
为什么要在后者上注册API参数。。。。而在前者被忽略?Cloudfront默认会剥离查询字符串,因此它基本上是在没有查询字符串的情况下向beanstalk发出请求,您需要将特定的查询字符串或全部白名单,使其像beanstalk链接一样工作。相关文档:谢谢James。我已经完成了这项工作,但由于某些原因,Cl
AWS S3 web控制台列出已删除的存储桶。选择铲斗并尝试清空或删除它会导致“清空铲斗”或“删除铲斗”模式确认按钮无声失败
如果您点击bucket并尝试上传文件,您会收到一条错误消息“error Data not found”。如果您尝试创建文件夹,则会收到“创建名为“”的文件夹时出错”。如果您尝试更改名称和属性、权限或管理,则还会收到错误消息
如果您尝试使用相同的名称创建一个bucket(可能是为了覆盖旧的bucket),则会收到一条错误消息,指示使用了该bucket名称
类似地,s3 up
我正在部署一个包含不同资源(lambda函数、cognito用户池、cognito标识池等)的无服务器框架项目
对于上一个项目,我们从控制台(手动)创建了第二个Api网关的配置(除了我们在lambda上使用Serverless配置的那个)作为s3 bucket的代理,因此我们能够在不使用lambda的情况下从bucket添加和获取文件
现在,我想对这个新项目做一个精确的描述,但是不是从控制台手动创建第二个Api网关,而是有一种直接从无服务器配置声明这个代理的方法吗
我寻找了不同的解决方案,但没有
我的服务器上安装了一个S3存储桶。它作为根安装
默认情况下,我需要使bucket中某些文件夹中的所有文件归另一个用户所有,因为当我尝试以该用户的身份对该目录执行操作时,它会说访问被拒绝
我试过:
sudo setfacl -Rdm u:newuser:rwx /path/to/directory/
我还卸载了bucket,然后以该用户的身份登录并尝试重新装载,但由于该用户没有访问密码文件的权限,因此也无法正常工作
我是否必须只授予该用户对密码文件的权限
还有别的办法吗?欢迎使用任何其他解决方案
根据这一点,以及下面的一段代码,允许我将S3 bucket中的一个子文件夹指向我的域
但是,在未找到子域的情况下,我会收到以下错误消息:
<Error>
<Code>AccessDenied</Code>
<Message>Access Denied</Message>
<RequestId>2CE9B7837081C817</RequestId>
<HostId>
T3p7mzSYztPhXetUu
我在s3中有拼花地板文件,其中包含以下分区:
年/月/日期/某些id
使用Spark(PySpark),每天我都想把最后14天的数据上传到s3中(每个分区一个拼花文件),但不想删除14天之前的数据。。
我尝试了两种保存模式:
append-不好,因为它只是添加了另一个文件。
覆盖-删除过去的数据和其他分区的数据
有什么方法或最佳实践可以克服这个问题吗?我是否应该在每次运行中读取s3中的所有数据,然后再次写回?也许重命名这些文件,以便append将替换s3中的当前文件
非常感谢 据我所知,S3没有
我在AWS S3上托管了我的网站(由VueJS制作,改为dist文件)。
它有多个页面(不是一个页面站点)
{mydomain}
{mydomain}/about
{mydomain}/contact
起初,刷新时出现错误404:NoSuchKey
我阅读了其他stackoverflow问题,并将index.html放在自定义错误文件中。
现在提交时没有错误,但刷新时会转到主页{mydomian}
通过单击可以从{mydomain}转到{mydomain}/about
但是,我在{mydom
我正在使用一个名为本地模拟AmazonS3的产品,它作为Flink作业的流文件接收器
在运行日志中,我可以看到Flink忽略Localstack并试图联系AmazonS3
Received error response: org.apache.flink.fs.s3base.shaded.com.amazonaws.services.s3.model.AmazonS3Exception: Service Unavailable
Retrying Request: HEAD https://s3
我只想使用ffmpeg控制台将视频文件上传到AWS S3。我试过了
ffmpeg -re -i 1.mp4 -f hls -method PUT https://[my-public-bucket].s3.us-east-2.amazonaws.com/video/temp.mp4
执行命令,但bucket中不显示任何文件
我也试过了
ffmpeg -re -i 1.mp4 -f mp4 -movflags frag_keyframe+empty_moov -method PUT https:
我有一个用盖茨比构建的静态React网站,web应用程序需要从数据库中检索音频文件并播放它们。该站点已经部署在Netlify上,音频文件位于S3存储桶中(配置了Cloudfront OAI以供访问)
但我一直在想,在S3上同时托管站点和音频文件会更好吗?如果是这样的话,那么我相信该站点就不必发出任何HTTPS请求。当然,最好的方法是使用CloudFront和两个bucket,一个用于html/js/css/etc文件,另一个用于音频。您可以为CloudFront分发配置自己的域名(使用Route
在启用对象锁定的S3存储桶上尝试使用flink执行多部分上载时遇到以下错误。s3 bucket设置为“治理模式”
原因:org.apache.hadoop.fs.s3a.awsbadrequesteexception:upload part on/archived-0-0.txt:com.amazonaws.services.s3.model.amazons3异常:具有对象锁定参数的Put part请求需要Content-MD5 HTTP头(服务:Amazon S3;状态代码:400;错误代码
我的下游系统生成一个超过80MB大小的文件,我想将从下游收到的响应上传到PCF平台上的S3存储桶
我可以遵循哪些最佳实践来避免超时问题
如何实现这一点作为一个流选项,而不是在查询到下游时耗尽内存
在开发者工具/Network/got中:
{
"Version": "2012-10-17",
"Statement": [
{
"Sid": "IPAllow",
"Effect": "Allow",
"Principal": &qu
我使用这个docker图像为我的s3 bucket设置了一个反向代理。当我使用postman通过代理url将文件上传到我的bucket时,它遇到了这个错误
<Error>
<Code>SignatureDoesNotMatch</Code>
<Message>The request signature we calculated does not match the signature you provided. Check your
我遇到了一个奇怪的问题
我已经将一些文件移动到AmazonS3。
我可以使用cloud berry查看这些文件,但其中一些文件没有加载。
我已经给出了以下设置
hedaers: cache-control
value: public,max-age=8640000
任何帮助都将不胜感激。
谢谢难道hedaers不应该是header吗?很好,这是使用cloudberry手动提供的。所以我不必在那里输入标题。
我一直这样做,但现在似乎不再有效(2015年8月):
最近有什么变化吗?当我签入S3时,没有标题信息集。您需要在查询中使用-Metadata参数,将-HeaderCollection{“Cache Control”=“public,max age=120”}参数更改为-Metadata@{“Cache Control”=“public,max age=120”}效果良好,可以在AWS web控制台中看到
这是一个工作片段
Write-S3Object -BucketName myBucket
我认为在微服务体系结构中,灾难恢复越来越成为一个问题。例如,一种常见的模式是将大型数据对象存储在S3中,如多媒体数据,而JSON数据则存储在DynamoDB中。但是,当你有一个黑客过来并设法从你的DynamoDB中删除一整块数据时,会发生什么呢
您还需要确保您的S3存储桶恢复到与当时相同的状态,但有没有优雅的方法可以做到这一点?问题是,很难保证S3备份和DynamoDB数据库同步?我不知道有哪种解决方案可以跨服务执行真正的同步备份还原。但是,您可以使用本机库和第三方库将这两个服务恢复到一个公共时
我正在尝试使用cloudformation yaml文件在aws云中创建堆栈
下面是我的第一个堆栈文件的一个片段。在输出部分,我使用Lambda函数Arn的值创建导出变量
Resources:
FileTriggerFunction:
Type: 'AWS::Lambda::Function'
Properties:
FunctionName:
'Fn::Join':
- '-'
- - 'Fn::Impor
我们使用AWS S3来存储和服务我们的内容。我们希望将该数据备份到Microsoft Azure存档存储。我试图找到一个关于如何实现这一点的教程,但我找到的一些答案与过期的资源有关
我们已经拥有超过30 TB的存储容量,并且我们正在每隔几天增加大约1 TB的存储容量,将来可能每天超过1 TB
我们如何以这种规模自动化从S3到Azure的数据复制?有两种可能的方法:将数据从S3传输到Azure存储:使用Azure data factory,可以在此处找到完整的文档:
“支持的能力
您可以将数据复制
我正在使用java应用程序将一个gzip文件上传到S3 bucket中,其中的数据将在Athena中使用。gzip文件在上载时损坏。
由于这个原因,雅典娜无法查看gzip文件中的数据,而且当文件被下载并手动尝试解压时,它会说“它不是gzip文件”
private void getAndProcessFilesGenReports(String parUrl, String custCode, long size, String queryDate) {
try (Clos
我正在尝试部署一个lambda函数,允许我将图片上传到S3。
lambda在离线状态下工作得很好,但是当我将其部署到AWS时,该函数就不起作用了
我遇到的第一个错误是:
ERROR (node:7) [DEP0005] DeprecationWarning: Buffer() is deprecated due to security and usability issues. Please use the Buffer.alloc(), Buffer.allocUnsafe(), or B
1 2 3 4 5 6 ...
下一页 最后一页 共 105 页