我希望通过使用不同的域访问存储在Amazon S3服务上的资源,从而将请求并行化。我意识到我可以制作多个bucket,并确保内容始终相同。然而,这很烦人。每次我上传东西,我都要上传5次
谢谢。你不需要这样做。S3应该一次处理多个下载请求。如果您需要更多,那么使用CloudFront,它可以使文件更接近您的客户机
如果“并行化请求”是指其他内容,请详细说明。我相信@user205865指的是浏览器对来自单个域的同时连接的限制。因此,虽然S3当然可以处理多个下载,但如果资源来自多个域,浏览器可能能够
有组织计划攻击亚马逊,有人知道使用云服务的客户是否会受到影响吗?我知道他们正试图关闭零售端,但你认为这会影响使用AWS的网络应用吗
最后,如果这种攻击是针对AWS的,那么网络应用公司可以采取哪些措施/策略 不,我不这么认为。AWS和amazon(如:webshop)是两种完全不同的服务,位于不同的服务器上。不过,对frontpage进行攻击就足够了,因为这是该组织的主要收入。你认为亚马逊以前没有受到过攻击吗?
我正在使用s3bucket来存储数据。我每天都把数据推到这个桶里。我想知道是否有一个功能,我可以比较两个日期之间我的桶中不同的文件。我不知道,有没有办法通过awscli或sdk构建一个
我之所以要检查这一点,是因为我有一个s3存储桶,我的客户机一直在将数据推送到这个存储桶。我想看看自从上次我加载它们以来,它们推送了多少数据。aws中是否有支持此查询的模式?或者我必须在s3 bucket中创建任何规则来分析它吗?从Amazon s3上市
您可以激活,它可以提供一个每日文件,列出AmazonS3存储
我想在S3和EC2之间传输大量数据(约30G,分为约100个文件):当我启动EC2实例时,我想尽快将数据从S3复制到EC2本地磁盘,当我完成处理后,我想将结果复制回S3
我正在寻找一种能够快速/并行地来回复制数据的工具。我有几个脚本被砍掉了,包括一个做得不错的脚本,所以我不是在寻找指向基本库的指针;我正在寻找快速可靠的东西。我认为最好使用弹性块存储来存储文件,而不是S3。EBS类似于S3上的“驱动器”,可以装入EC2实例中,而无需每次复制数据,从而允许您在EC2实例之间持久保存数据,而无需每次向
如果我在Amazon S3中存储了对象,是否可以将对象的所有权转移给其他用户?
AmazonS3中的每个bucket和对象都有一个所有者,即创建bucket或对象的用户。无法更改存储桶或对象的所有者。但是,如果对象被其他用户覆盖(删除和重写),则新对象将有一个新的所有者
因此,不可以,但您可以通过ACL将写访问权授予另一个用户,该用户可以读取、删除并写回,该用户将成为所有者。这取决于您所说的所有者:
运行S3帐户(最高级别)的人始终可以看到所有文件,将它们传输到另一个帐户的唯一方法是将文件下载到
我正在将一个应用程序转移到Heroku上,随后意识到我需要在目前位于欧盟的各州设置一个S3存储桶。这是为了避免支付转账费用
我不清楚的是我应该选择哪一个。我看到了北加州和美国标准地区,但找不到任何东西来说明我应该选择哪一个
提前感谢。除了选择地理位置上最接近S3资源消费者的地区外,实际上没有其他选择,这只是出于延迟原因。从S3定价页面:
“输入”和“输出”数据传输指的是进出AmazonS3区域的数据传输。通过复制请求在Amazon S3区域内传输的数据不收取数据传输费用。区域间通过复制请求传输的
我遇到了这个问题,到目前为止,似乎唯一的解决方案是更强的一致性模型。该服务是AmazonS3,它提供了最终的一致性。我们将其用作blob存储后端
问题是,我们在应用程序中引入了消息传递模式,我们很喜欢它。毫无疑问,它的好处。然而,它似乎需要更强的一致性。情景:
子系统从用户获取数据
数据保存到S3
消息已发送
消息由另一个子系统接收
数据从S3读取
…蟋蟀。这是旧数据吗?有时是这样。
所以。我们尝试将数据发送到消息中,以避免从S3读取不一致的数据。但这是一件非常糟糕的事情,消息变得不必要的大,当
我对cloudfront有点陌生,但已经设法让JWPlayer为一个.mov工作了rtmp,我把它放在一个连接到流媒体发行版的桶中。我不确定的是,我已经在同一个bucket中添加了另外两个.mov文件,并使用相同的权限(Everyone:Open/View)将它们公开,但是播放器报告未找到流。上传的视频是否需要一定的时间才能通过RTMP访问
感谢使用.mp4(h.264)文件为我解决了这个问题 使用.mp4(h.264)文件为我解决了这个问题 我现在只是自己研究这个问题,所以我不是完全有信心,但
我在s3上有一个mp3文件(并且有很多其他mp3文件的使用经验),它不是在chrome上播放的(还有其他浏览器:FF、safari等)。chrome中的网络对话框显示,有一个挂起的请求似乎从未被s3响应,但是如果我对URL进行wget,我会立即得到响应
此外,如果我在运行nginx的服务器上提供完全相同的文件,我也可以即时访问chrome中的URL。我知道S3支持字节范围请求,所以chrome的字节范围查询应该没有问题。此外,我还验证了该文件是可访问的,并且其内容类型是audio/mpeg
以下
我有这样的要求,我需要将报告数据直接导出到csv,因为获取阵列/查询响应,然后构建scv,然后再次将最终的csv上载到amazon需要时间。有没有一种方法可以让我直接用红移postgresql创建csv。
PgSQL-使用标题将选择查询数据直接导出到AmazonS3服务器
这是我的pgsql版本——amazon redshift上的pgsql 8.0.2版本
谢谢您可以使用语句将结果保存到S3存储桶中。请记住,这将创建多个文件(每个计算节点至少一个)
您必须下载所有文件,在本地合并它们,排序(如
我想为我的Openshift实例配置每日快照,并将这些快照保存到AmazonS3。当我试图完成这项任务时,我遇到了几个困难:
Openshift实例无法创建自身的快照,因此您必须有单独的实例来为您创建此快照
当我创建单独的实例时,我没有正确地设置rhc。当我运行rhc安装程序(在gem安装rhc之后)时,它会向我抛出一个错误:
`mkdir':权限被拒绝-/var/lib/openshift/530…0132/.openshift(Errno::EACCES)
我认为为数据库创建备份会更简单,如
当AmazonS3图像从AmazonS3下载(或者从任何地方下载)时,是否有显示加载程序的函数/钩子?我目前没有使用任何CDN或CloudFront,因此我的下载有时会很慢。我想在图像下载时显示一个加载器。在我的代码中,我有:
{{#if uploadedCustomLogo}}
{{#with customLogo}}
{{#if isUploaded}}
<div class="img-wrapper">
<img
Amazon S3是否有任何(记录或未记录的)上传带宽(每个帐户/ip?)限制
我可能会考虑不断存储200兆比特,但我认为亚马逊可能会有问题。我找不到任何记录的限制,似乎表明2011年的最大吞吐量大于8gbit
我正在尝试处理来自S3文件系统的文件。我已经导出了AWS\u访问密钥\u ID和AWS\u SECRET\u访问密钥。我还设置了配置
hadoopConf.set("fs.s3.awsAccessKeyId","<key>")
hadoopConf.set("fs.s3.awsSecretAccessKey","<secret>")
build.sbtMy build.sbt具有以下依赖项
libraryDependencies += "org.apache.spa
我有一些这样的代码
wordCounts
.map{ case (word, count) =>
Seq(
word,
count
).mkString("\t")
}
.coalesce(1,true)
.saveAsTextFile("s3n://mybucket/data/myfilename.csv")
但是,myfilename.csv是在我的S3存储桶中创建的一个目录,文件名总是类似于myfilename.csv/p
您可以在基于浏览器的上载(非多部分)中使用内容长度范围字段限制文件大小:
如何在多部分上传中限制它?我正在使用。很抱歉回复太晚,但我确实知道这里有一个帖子
FWIW,使用蒸发.prototype.add上的maxFileSize选项验证最大文件大小
标签: Amazon S3
consolecakephp-3.0fatal-erroraws-sdk
我使用S3 bucket从我的CakePHP 2.0 Web应用程序上传文档
现在我面临着从CakePHP3.0shell脚本上传的问题。
我得到了致命错误:在App\Shell\S3.php中找不到类S3,
我在谷歌上搜索了很多,我尝试过使用S3SDK,但如果您尝试在Shell脚本中使用S3类,我会发现上面的错误。
如果我遗漏了什么,请告诉我,我们将非常感谢您的帮助。您的问题看起来像是自动加载S3SDK的问题。您是否正确地包含了S3SDK的自动加载程序
无论如何,我推荐使用PHP league
我喜欢在S3+Cloudfront中托管静态站点的想法
最佳实践似乎是在S3中对文件进行版本设置。例如,对于站点版本2324,我会在
s3://my-site-assets/2324/images/logo.jpg
我遇到的问题是如何对实际页面进行版本设置。如果“你好”页面位于
s3://my-site-assets/2324/hello.html
我希望访问者访问https://my-site.com/hello.html以获取正确的版本
对于100%静态站点,这可能吗?现在,我正在通过对
我正在尝试查询文件夹“t/atms csv.csv”下的一个文件,我可以成功地进行查询
直接使用文件名查询文件:
该位置还有另一个文件,作为另一天的附加数据(文件和模型)。当我尝试使用文件夹名“t”进行递归查询时,显示以下错误
查询文件目录以扫描所有文件:
已尝试的查询(所有问题都没有解决):
从`t/`中选择*
从`/t/`中选择*
从dfs中选择*。`t/`
从dfs中选择*。`/t/`
从fs.`t/`中选择*
从fs.`/t/`中选择*
我正在使用以下版本
演练-1.6.0
S3协议
我使用qubole/streamx作为kafka接收器连接器来使用kafka中的数据并将其存储在AWS S3中。
我在AIM中创建了一个用户,权限为AmazonS3FullAccess。然后在hdfs-site.xml中设置键ID和键,该目录在quickstart-s3.properties中分配
配置如下:
quickstart-s3。属性:
name=s3-sink
connector.class=com.qubole.streamx.s3.S3SinkConnector
format.cl
假设我有一个网站,当我使用curl发送GET请求时,会返回我的JSON数据。我想将curl的输出重新定向到AWS S3。应在S3上为其创建一个新文件
目前,我能够重定向输出以将其存储在本地
curl -s -X GET 'http://website_that_returns_json.com' > folder_to_save/$(date +"%Y-%m-%d_%H-%M.json")
我已经安装了AWS CLI和s3cmd。如何重定向create的输出以在AWS S3上创建新文件
AWS是否提供了将bucket从一个帐户复制到另一个帐户的方法?出于开发目的,我正在将几个文件上传到我自己的bucket中,但现在我想将bucket切换到客户端帐户
所有可能的解决方案是什么?您可以将一个存储桶的内容复制到其他帐户拥有的另一个存储桶,但不能将存储桶的所有权转移到新帐户。考虑它的方式是,您正在转移bucket中对象的所有权,而不是bucket本身
亚马逊有
在源帐户中,将以下策略附加到要复制的bucket
#Bucket policy in the source AWS accou
我有一个aws API网关API将音频文件上传到s3,在头中发送x-amz-tagging键值对,我在API的方法请求头中得到这个,但是s3没有收到标签
'x-amz-tagging':'key1=value1&key2=value2'经过一些研究,我找到了一个解决方案
在“方法执行”窗格中选择“方法请求”,然后选择“HTTP请求头”,您可以添加头,这里是它的x-amz-tagging
而且
选择集成请求,展开HTTP头并添加头
这里,
API网关可以将方法请求中从客户端发送的URL路径部
源目录包含许多大型图像和视频文件
需要使用AWS S3 cp命令将这些文件上载到AWS S3存储桶。例如,作为构建过程的一部分,我将图像文件my_image.jpg复制到S3存储桶中,如下所示:aws S3 cp my_image.jpg S3://mybucket.mydomain.com/
我可以手动将此副本复制到AWS。我也能写剧本。但是我想使用makefile上传我的图像文件my_image.jpgiff我的S3存储桶中的同名文件比源目录中的文件旧
通常,make非常擅长这种基于文件日期
我已经从源bucket中删除了文件。源和副本是同步的,都有删除标记。我删除源bucket中的删除标记,以恢复文件。但该文件在副本中被删除(具有删除标记)。它的设计是:
如果删除请求指定要删除的特定对象版本ID,Amazon S3将删除源bucket中的该对象版本,但不会在目标bucket中复制删除操作(换句话说,它不会从目标bucket中删除相同的对象版本)。此行为可防止恶意删除数据。
我需要一个用于故障切换的一致副本。如何防止副本中的不一致性?我认为只有一种方法可以保存一致性:
切勿删除对象
我正在尝试将我的moodledata文件夹内容移动到AmazonS3中。我没有找到任何文档(或指南)来配置此设置。
我使用的是MOODLE 3.3稳定版本。
有人能帮我设置吗?您可以使用s3fs并将其安装到Web服务器上。
我建议使用本地目录(用于性能)来:
缓存、本地缓存和会话
我正在尝试访问一个文件,并在S3中用boto更新它,但即使在两个请求之间暂停,仍然会出现减速错误,如下代码所示。我该怎么做
body = b'Here we have some more data'
s3.put_object(Body=body,Bucket=bucket, Key=key)
time.sleep(10)
response = s3.get_object(Bucket=bucket, Key=key)
time.sleep(10)
print(response["Body"].
我在s3中有一个CSV(制表符分隔),需要在JSON字段上查询
uid\tname\taddress
1\tmoorthi\t{"rno":123,"code":400111}
2\tkiranp\t{"rno":124,"street":"kemp road"}
如何在Amazon Athena中查询这些数据
我应该能够查询如下内容:
select uid
from table1
where address['street']="kemp road";
您可以尝试使用json\u extr
我有一个CloudFront发行版,以s3bucket作为起点
发行版正在使用Use Origin Cache Headers设置
附加设置如下所示
之后,我通过S3控制台上传一个文件,并尝试使用curl获取该文件(当然,没有缓存控制元数据)
我希望所有请求都应该返回缓存未命中,因为没有任何缓存设置(CloudFront和S3对象元数据)。但是,正如您所看到的,第二个请求返回缓存命中
为什么CloudFront会缓存它
是否有任何隐藏的默认缓存设置 控制台呈现这一点的方式无疑非常令人困惑,甚
标签: Amazon S3
amazon-cognitoamazon-rekognition
我尝试比较s3中的两个图像。
因此,我参考以下内容完成了代码:
我用RoleS3完全访问权限创建了IdentityPool,Rekognition完全访问权限
try{
CompareFacesRequest compareFacesRequest = new CompareFacesRequest().
withSourceImage(new Image().withS3Object(new S3Object().withNa
我可以用bucket_name参数创建一个aws cdk s3.CfnBucket,看起来不错。s3.Bucket cdn构造是否具有bucketName属性?它被记录为cdk.PhysicalName属性,但我不知道如何构造新的PhysicalName。答案取决于您使用的cdk版本。Imho在版本0.35.0中更改为使用PhysicalName
const srcBucket = new Bucket(this, "ImageResizeSourceBucket", {
bucketNam
我想将存储在S3存储桶中的数据加载到红移。我知道这可以手动完成。但是,是否可以使用S3批处理操作作业并计划定期将S3数据加载到Redshift中的任务?AWS数据管道是一个管理服务,它正好可以做到这一点。您可以配置和计划将数据从S3导入到红移的批处理作业
这里有一个教程:您可以从S3批处理操作调用Lambda函数,将数据加载到红移中
在Jeff Barr下面的帖子中检查调用AWS Lambda函数的
通过执行COPY命令将数据从S3加载到红移,您可以编写一个Python脚本来实现这一点。使用Py
说明
在我的工作场所,我们有大量需要处理的数据。它涉及到数量迅速增长的实例(目前约3000个),这些实例都有几兆字节的数据存储在S3上的Gzip csv文件中
我已经设置了一个spark群集,并编写了一个spark脚本,该脚本执行以下操作
在每种情况下:
加载数据帧
运行计算
但是还没有保存数据帧(因此没有触发任何操作,我在spark作业UI中确认了这一点)
之后,我将所有数据帧合并成一个数据帧并保存结果(因此触发一个操作)
问题
当我使用少量实例时,上面的方法非常有效。但我发现了以下问题:
我正在使用Airflow EMR操作符创建一个AWS EMR集群,该集群运行S3中包含的Jar文件,然后将输出写回S3。它似乎能够使用S3中的Jar文件运行作业,但我无法让它将输出写入S3。我能够让它在作为AWS EMR CLI Bash命令运行时将输出写入S3,但我需要使用EMR操作符来完成。我在步骤配置和Jar文件的环境配置中都设置了S3输出目录,但仍然无法让操作员写入
这是我的气流DAG的代码
from datetime import datetime, timedelta
import
我正试图通过Terraform 0.12创建一个S3存储桶策略,该策略将根据环境(dev/prod)而改变。以下是该政策的一部分:
{
"Sid": "AllowAdminAccessToBuckets",
"Effect": "Allow",
"Principal": "*",
"Action": [
"s3:GetBucket*"
],
我有一个本地文件共享,它被复制到一个雪球中,并导入到一个s3存储桶中(~70TB;许多小文件)
自导入以来,用户已将内容添加到本地共享。
我正在尝试获取所有不存在的文件的列表,然后将它们传输到bucket
我尝试过同步和s3cmd同步,但它必须遍历每个项目,我的想法是,如果我导出一个列表,然后运行一个只复制需要移动的项目,它将节省大量时间
如果您认为您的文件没有更改,也就是说,如果文件路径是唯一标识内容的,请确定您可以这样做。此外,您可以检查大小是否保持不变
要获取s3存储桶中的对象列表,请使用
好的,我有一个使用AmazonS3多部分的工作应用程序,它们使用CreateMultipart、UploadPart和CompleteMultiPart
现在我们正在迁移到谷歌云存储,我们有一个多部分的问题。据我所知,谷歌不支持s3多部分,从这里得到信息
所以我看到google有一个最接近的方法Compose,我只是上传不同的对象,然后发送合并它们的请求,或者我可以使用uploadType=multipart,但这似乎与s3 multipart完全不同。还有一种可恢复的上传方式,它似乎允许分块上
我有一个目录,其中包含使用时间戳创建文件夹名称的文件夹。我想使用s3cmd查找具有最近一次修改值的文件。如果这是不可能的,那么前面这些问题的解决方案是正确的吗?
s3cmd是否可以本机执行此操作,或者我是否必须检索所有文件夹名称并对其进行排序?使用,您可以列出最新的文件,其中包括:
aws s3api list-objects --bucket my-bucket-name --prefix folder1/folder2/ --query 'sort_by(Contents, &La
有没有办法将Traefik设置为S3静态网站托管的反向代理
我尝试使用文件提供程序,如下所示:
# http routing section
http:
routers:
# Define a connection between requests and services
to-site:
rule: "PathPrefix(`/site`)"
middlewares:
- site-stripprefix
service
我想在使用函数转换Spark数据后编写一个CSV文件。转换后获得的Spark数据帧看起来不错,但当我想将其写入CSV文件时,我有一个错误:
It is possible the underlying files have been updated. You can explicitly invalidate the cache in Spark by running 'REFRESH TABLE tableName' command in SQL or by recreating the Dat
我有一个lambda,每当一个新的csv文件被添加到s3 bucket时,它就会被激发。它将csv文件解析为csv的各个行,并将它们放入sqs队列中进行进一步处理
问题是,即使lambda具有适当的权限(s3:getobjectforarn:aws:s3:::my bucket name/*),它在尝试执行GetObject函数时也总是失败,并出现拒绝访问错误
知道为什么会发生这种情况吗?问题是lambda接收到的文件名编码错误,导致lambda查找不存在的文件
AWS将查找不存在的文件视为试图
我正在使用以下代码以.csv格式编写一个DF到S3的代码:DF.coalesce(1).write.csv('S3://path_to_S3/abc.csv',header=True,mode='overwrite')。当我从S3下载并打开这个文件时,我只看到其中的特殊字符,如·T]~xE|ña¥9ÿNÿ3×&>xE 4。
这是因为它是用拼花格式写的吗?有没有一种方法可以让我用正确的文本来写它,下载这个文件并使用它
感谢您的帮助
在我的s3存储桶中,如果对象是以阿拉伯语命名的,那么通过浏览器访问对象是否会有任何问题。请参阅,以了解有关如何避免的详细信息和建议
理论上:
可以在对象键名称中使用任何UTF-8字符。但是,在密钥名中使用某些字符可能会导致某些应用程序和协议出现问题。以下准则可帮助您最大限度地遵守DNS、web安全字符、XML解析器和其他API
我正在运行一小段代码来检查S3中是否存在路径。我在该网站上查看了多个解决方案,但没有一个有效:
def generate_timestamp_prefix_for_s3():
prefix_exists = False
print("Executing..")
mydate = datetime.now()
full_current_month = mydate.strftime("%m")
full_current_date
我想将Pravega Tier2存储配置为使用AWS S3。我的理解是,支持任何与S3兼容的后端。然而,在我的Kubernetes集群中,我似乎无法实现这一点
我正在使用以下清单:
apiVersion:v1
种类:秘密
元数据:
名称:aws凭据
类型:不透明
stringData:
访问密钥ID:[AWS\U访问密钥ID]
机密密钥:[AWS\U机密密钥\U访问密钥]
以及相关的Pravega群集配置:
存储:
长期储存:
类型:ecs
云服务器:
配置URI:https://s3.eu-
很抱歉,这可能是一个显而易见的问题。但我有一个3节点的ElasticSearch集群,我希望它每夜拍摄一个快照,然后发送到S3进行恢复。我已经为我的测试集群做了这些,它是一个节点。当我开始为我的3节点生产集群做这件事的时候,我想知道我是否必须在每个节点上分别配置存储库和快照,或者我可以通过Kibana在一个节点上做这件事,然后它会在整个集群中进行复制?我已经查看了文档,但没有看到任何关于此的内容
谢谢大家! 是的,您需要在每个节点中配置它
首先,您需要在每个节点中安装repository-s3插
我已经试过维莱罗做后援了。它适用于整个命名空间和应用程序。但我的要求是使用cronjob从redisdb获取一个scedule备份,并将其发送到s3 bucket。我在网上和讨论中尝试过我的方法,但无法创造。
在链接下方使用,但不起作用
请给出一些实时示例。如果有人有任何想法,请提供帮助
在其他地方,有人建议您可以使用Elastic Map Reduce备份dynamodb表,
我大致了解这是如何工作的,但我找不到任何关于这方面的指南或教程
因此,我的问题是如何自动化dynamodb备份(使用EMR)
到目前为止,我认为我需要创建一个“流”作业,其中包含一个map函数,从dynamodb读取数据,以及一个reduce,将数据写入S3,我相信这些可以用Python(或java或其他一些语言)编写
欢迎提供任何评论、澄清、代码示例和更正。对于使用MapReduce和DynamoDB,
我试图将一个红移表卸载到S3存储桶中,但我遇到了无法解决的错误
当使用's3://mybucket/'作为目标时(这是指定目标的有文档记录的方式),我有一个错误,即S3ServiceException:您尝试访问的bucket必须使用指定的端点寻址。请将所有未来的请求发送到此终结点。
经过一些研究后,我尝试将目的地更改为包含完整的bucket url,但没有成功
所有这些目的地:
's3://mybucket.s3.amazonaws.com/”
's3://mybucket.s3.amazo
我是S3接收器连接器的新手,我正在尝试为我的项目设置S3连接器。
我毫不怀疑:
配置中的flush.size有什么用途?如果我给它一个非常大的数字(2147483647),那么它将如何工作
rotate.interval.ms-如果我将其值设为1小时,它是如何工作的
rotate.schedule.interval.ms-如果使用此设置,是否会获得重复记录
提前谢谢 刷新大小决定了文件中预期记录数的上限;如果将其设置为大,则可能会耗尽Connect Worker上的内存/磁盘空间,或者每个分
上一页 1 2 3 4 5 6 ...
下一页 最后一页 共 109 页