我有一个网站,每月吸引大约30000名访问者。它有很多照片和PDF文件,占用了大量带宽。它由site5.com托管,每月约5美元,提供无限带宽和存储。根据site5的统计数据,我的站点每天大约有20GB的下载量,但我看到它高达11GB。上传范围为每天5-15GB。(尽管如此,我并不是每天都上传东西,所以我不知道这些数字是从哪里来的。)
我期待着我的网站能有更大的发展,可能是通过托管视频、高分辨率照片等方式,我正在寻找其他存储选项,尽管site5已经相当不错了。具体来说,amazon.com(S3
我正在使用jets3t列出我们其中一个存储桶上的文件。我注意到它返回了一切。我希望按目录遍历bucket,而不是一次获取所有文件,这将花费太长时间,因此我很好奇是否有办法只获取第一级的文件
例如:
\Bin
-\file1.txt
-\文件夹1
----\file2.txt
因此,基本上获取file1.txt和folder1对象,但不要深入获取folder1中的file2.txt。
上面的S3Service方法接受一个bucket名称、一个前缀和一个分隔符来缩小返回结果的范围
我正在尝试使用.net amazon sdk启用bucket版本控制。我想知道是否有人可以解释一下。在SDK中可以调用一个特定的方法来启用此功能
Dropbox声称,在同步过程中,仅将更改的部分文件传输回主服务器,这显然是一个很好的功能,但它们如何对存储在AmazonS3云中的文件执行更改?例如,假设用户桌面上的30页文档只包含对第4页的更改。Dropbox现在同步表示更改的块,如果它们存储的文件在云中,后端会发生什么?这是否意味着他们必须将存储在S3中的30页文档下载到他们的服务器,然后替换代表第4页的块,然后上传回云?我怀疑情况会是这样,因为那样会有点低效。我可以想到的另一个选项是,如果AmazonS3提供了基于字节范围的云存储文件更
我正为一个小问题而挣扎。在过去的几天里,我一直在想,如果有一款dropbox应用程序,可以让文件夹与我的AmazonS3后端保持同步,那该有多好。遗憾的是,我并没有尝试过很多,但从阅读中,我还没有找到任何应用程序能够完全实现dropbox的功能
我不想安装网络驱动器之类的东西
我很确定我自己能够编写一个小应用程序,可以从amazon s3 bucket上传和下载文件,但一想到它,我就进退两难了
据我所知,dropbox和svn一样,只提交其更改。那么,有没有人能够提供一些关于幕后工作的信息
如果
我编写了以下函数来编码我的S3链接,以便它们处理Amazon的S3编码系统来保护链接。问题是,它只在文件在bucket中时才起作用。如果我在bucket上创建一个子文件夹并将文件粘贴在其中,那么它就不起作用了。我做错了什么
function encodeS3($sURL,$sAccessKey,$sSecretKey,$nExpireMinutes = 5) {
$sFile = basename($sURL);
$sBucket = basename(str_replace('/' .
我正在尝试将blob上载到S3,并使用.NETAPI指定“Content-MD5”头。我希望这样做,以便a)S3验证散列,b)每当客户端下载文件时,他们都会读取blob上的“Content-MD5”头,并在客户端进行验证
大概是这样的:
PutObjectRequest request = new PutObjectRequest();
request.WithFilePath(fileName)
.WithBucketName(S3_BU
我正在尝试将配置单元结果导出到位于AmazonS3上的文件
但是结果文件有一些无法识别的字符,如square等
结果文件格式的类型是二进制/八位字节流,而不是csv
我不明白为什么它不能创建csv文件
使用的配置单元版本为hive-0.8.1
我把我遵循的步骤放在下面
顺便说一句,hive是从Amazon EMR启动的实例中使用的
create table test_csv(employee_id bigint, employee_name string, employee_designati
在s3fs指令wiki中,我们被告知可以通过在/etc/fstab
s3fs#mybucket /mnt/mybucket fuse allow_other,use_cache=/tmp,url=https://s3.amazonaws.com 0 0
这对于1个bucket很好,但当我尝试通过2行代码将多个bucket装载到1个EC2实例上时:
s3fs#mybucket /mnt/mybucket fuse allow_other,use_cache=/tmp 0 0
s3fs
我已创建分发id。它具有以下属性
Array (
[id] => E3VYXDXV1O9WXQ
[status] => Deployed
[time] => 1365430752
[domain] => d1fhielx2etku.cloudfront.net
[enabled] => 1
[origin] => avijit_bucket.s3.amazonaws.com
[originAccessId
我通过AWS EMR运行Hive,并有一个作业流,可以频繁地将日志数据解析到S3中。我对解析的配置单元表使用动态分区(日期和日志级别)
当我有几GB的数据和大量的分区时,一件需要花费很长时间的事情是当Hive在解析完成后将数据加载到表中时
Loading data to table default.logs partition (dt=null, level=null)
...
Loading partition {dt=2013-08-06, level=INFO}
L
我们使用的是Ink FilePicker,它非常适合我们,除了一个特定的用例。当通过URL上传并指定指向s3文件的链接时,我们会收到拒绝访问错误。其他链接工作正常,其他HTTPS链接工作正常。根据FilePicker文档,bucket策略设置为公开所有上载
谢谢您的帮助。您是否已根据FilePicker建议创建了IAM权限:
您需要在FilePicker中正确设置这些凭据
你需要这个才能获得许可。FilePicker还提供了有关如何正确设置S3的详细信息。嗨,Suman,感谢您抽出时间。权限很
我已经使用雾一段时间了,它工作得很好。我最近遇到了一个问题,我正在遍历目录中的每个文件
d = S3.directories.get(“XXXXX”, prefix: “XX”)
d.files.each do |f|
puts f.key
end
在本例中,f.key不仅提供文件名,还提供前缀,例如:pathtofile/file1.txt。如何仅获取文件1
谢谢由于键看起来像文件名,您可以使用File.basename:
d.files.each do|f|
放置文件.basename(
我想在没有第三方软件的情况下访问我的AmazonS3存储桶,但只需通过大多数操作系统中可用的WebDAV功能即可。有办法吗?对我来说,不需要第三方软件是很重要的。S3不支持webdav,所以你运气不好
而且,S3不支持层次名称空间,因此不能直接将文件系统映射到它
这里有一个示例java项目,用于将webdav服务器置于AmazonS3之上-有很多方法可以做到这一点。我不确定你的情况,所以他们在这里:
选项1:最简单:您可以使用第三方“云网关”提供商,如
选项2:设置您自己的“云网关”服务器
设
我有一个Hadoop作业,每天都在执行。然后生成一个文本文件,然后存储在AmazonS3上
我希望将相同的数据拉入QlikView。我有什么办法可以完成这项任务吗 QlikView没有用于Amazon S3的本机连接器,但是,您可以使用一种产品将S3存储桶连接到QlikView所在的机器,以便QlikView可以在本地获取您的文件,即它可以将驱动器映射到S3存储桶
有相当多的产品提供此功能,下面列出了一些。大多数是付费和YMMV:
(提供单连接的免费版本)
(免费版)
我使用的是“TNTD
正如标题所说,如果我为put事件将一个事件附加到S3存储桶,并将一个文件流式传输到该存储桶,那么一旦上传开始,事件会触发吗?这样,接收方就可以开始下载该文件的流
或者该事件是否会在文件上传完成后触发?您考虑的问题有两个:
直到上传完成,事件才会触发
将对象写入S3始终是一个原子操作。写入操作要么成功完成,要么根本没有发生。。。在成功完成之前,对象实际上并不存在于bucket中
如果您正在将一个新对象写入一个bucket,对该对象的授权请求将返回404错误,至少在上传成功完成之前是这样
如果要
当我使用Opscenter创建AmazonS3备份作业时,它会失败,日志和浏览器中会显示以下消息。它在创建步骤中失败。。我已尝试使用所有键空间和单个键空间…DSE版本4.7.1。。Opscenter版本5.2.0。我刚刚创建了这个集群。。以及首次创建备份作业
请告知
2015-07-31 11:41:35+0000[]错误:调用decorator时出现问题(LibcloudError):“此存储桶位于不同的区域。请使用正确的驱动程序。“>
文件“/usr/share/opscenter/lib/
当我试图从控制台使用GoogleAPI启动从AmazonS3到GoogleGCS的传输时,我的传输一直停留在“计算”步骤。我已经使用这个API四个月了,这是我第一次有这种行为。可能这个问题与上一个API版本的部署有关。我也有同样的问题。转移卡在计算步骤…是的,这里也是。我正在使用TSV传输我的文件。开始使用TSV处理所有文件时,只使用一个文件进行了尝试。计算起来需要多长时间??似乎要花很长时间。
这是一个S3问题,所以我在这里发布,而不是在Salesforce stackexchange中发布
基本上,我的Salesforce代码为S3生成预签名URL。前端使用这些文件来上载和下载文件
这是完美的工作。现在我们需要指定SSE(服务器端加密)。
根据文档,SSE-S3不适用于预签名URL
因此,我必须将SSE与客户生成的密钥一起使用。
这里的文字是这样说的:
创建预签名URL时,必须使用x-amz服务器端指定算法-加密-签名计算中的客户算法。
这就是我计算签名的方式,它可以很好地将
是否有可能在S3存储桶中获得未压缩和压缩大小的文件而不下载它们
我在S3上有大约750个压缩文件,从650MB到1.2GB不等,我想得到压缩和未压缩文件的总大小。我可以下载它们并使用以下工具:
gzip -l *gz
但是我必须先下载它们,这似乎需要做很多工作才能得到总尺寸。不,这是不可能的。AmazonS3存储原始文件。它不提供处理文件的功能
有必要下载并分析文件内容
将S3视为一种存储服务。它非常耐用和可靠,但基本上只是一种存储服务。您希望对数据执行的任何操作都必须在其他地方执行,就像数据
这是否可能在没有访问权限或密钥的情况下获得aws存储桶位置的准确驻留?
或者如何获得准确的aws S3存储桶位置而不是区域?您在问什么?bucket没有一个“位置”比设置它的AWS区域更具体——bucket在该区域的可用性区域中分布且冗余。我正在尝试获取一个位置而不是区域AWS区域是bucket的位置。请举例说明您希望找到的“位置”值。
我正试图通过AWS EMR上的hue在hive中创建一个外部表
CREATE EXTERNAL TABLE IF NOT EXISTS urls (
id STRING,
`date` TIMESTAMP,
url STRING,
expandedUrl STRING,
domain STRING
)
PARTITIONED BY (`year` INT, `month` INT, `day` INT)
STORED AS PARQUET LOCATION 's3://da
您希望这个bucket每秒立即接收超过150个PUT请求。公司应该如何确保最佳绩效
A) AmazonS3将自动管理这种规模的性能
B) 向键名称添加随机前缀
正确答案是B,我正试图弄清楚为什么是B。有人能解释一下B的意义吗?如果它仍然是真的?查找/写入工作意味着使用相似或有序的文件名可能会损害性能
仍然建议在S3键之前添加哈希/随机ID,以减轻大量访问对象的高负载
自2018年7月17日AWS发布以来,不再需要对S3密钥进行散列和随机前缀,以提高性能:
如何将随机性引入S3
使用随机十六进制
有没有办法让H2O集群直接保存/加载到S3
model.save('s3n://my-domain/gbm-from-the-future')
model.load('s3n://my-domain/gbm-from-the-future')
历史上,我通过以下方式实现了这一目标:
-保存到群集之外的文件系统
-与S3同步
-从S3下载
-从文件系统加载
显然,必须从集群本身找到更好的方法。根据Python for h2o.save_模型,这已经得到了支持。您没有提到您正在使用哪些API,因此
我有一个S3存储桶,其中存储了某些构建输出。我希望保持在那里的内容,以一个特定的数字。到目前为止,我所看到的是,S3存储桶中可以存储的对象数量没有限制,但如何将它们限制在特定数量上却没有限制。AWS是否提供该选项?不,bucket上没有这样做的选项。然而,创建一个Lambda函数来侦听S3 bucket事件并做出相应的反应将非常简单——在您的例子中,可能是删除旧文件。介绍将S3事件发送到Lambda函数的示例场景。当它超过该数字时,您希望发生什么?它应该阻止添加新对象,还是删除旧对象(以及如何指
每当在s3存储桶中创建对象时,我都能够向lambda函数添加触发器/通知。我还想在对象更新/更改时得到通知。当s3 bucket中的对象更改时,有没有办法通过SNS或lambda执行获得通知 S3中的对象及其元数据是不可变的。更改它们的唯一方法是替换它们,因此s3:ObjectCreated:*事件将捕获对象创建、对象覆盖和元数据更新
我读了很多关于如何使AmazonS3对象过期(删除)的文章,并试图设置生命周期规则来实现这一点,但是这些对象并没有被删除,我想知道我做错了什么
S3上的对象组织如下:
Amazon S3 > my-test-bucket > my-test-org > a.csv,
b.xml,
c.xsl...
如果
我需要不断地构建一个应用程序并将其部署到AmazonS3 bucket
我已经编写了以下CircleCi config.yml:
我认为应该发生的事情:
我有一个docker容器,我安装了应用程序,构建了它,并且文件已经准备好放在build文件夹中。
我在CircleCi文档中列出,构建文件正在从docker机器移动到s3 bucket。
要将项目部署到S3,可以在中使用以下命令
circle.yml的部署部分:
aws s3同步s3://-删除
实际发生的情况:
正在安装应用程序并创建生成文件
我有一个名为world的存储桶,在该存储桶下有一个文件夹world1。我从ACL向所有人授予了列表对象访问权限,并设置了一个低于bucket的策略,但仍然无法访问world1文件夹中存储的对象。获取拒绝访问错误
{
"Version": "2012-10-17",
"Statement": [
{
"Action": [
"s3:GetObject"
],
"E
我无法更改文件的扩展名,但我需要将其作为html文件提供。里面没有php。这样就可以了。将内容类型设置为text/html
您可以在S3控制台中执行此操作,如中所述,或在最初上载文件时执行此操作
我需要通过一个签名的URL将Gziped内容上传到S3
下面是我如何使用JS后端生成签名URL的:
s3.createPresignedPost({
Bucket: 'name',
Fields: {
key: 'key'
}
})
我已尝试将内容编码头传递给signedURL POST请求,但没有成功。s3对象上的标题设置不正确
我还尝试设置一个上传后lambda来更新元数据。它失败,出现错误文件相同错误
最后,我尝试使用cloudfront+lambda强制执行一个标题
我想让s3proxy在类似{host}:{port}/s3的url上响应,而不仅仅是{host}:{port}。是否可以以某种方式重新配置默认端点
我试图设置类似于s3proxy.endpoint={host}:{port}/s3的属性,但出现错误:
端点路径必须为空,was:/s3。
我还尝试将JCLOUDS_端点设置为/s3——也没有运气
我的属性文件如下所示:
s3proxy.authorization=none
s3proxy.endpoint=http://127.0.0.1:80/s
我在使用Apache Drill存储插件连接s3时遇到问题
{
"type": "file",
"connection": "s3a://bucket/",
"config": null,
"workspaces": {
"tmp": {
"location": "/tmp",
"writable": true,
"defaultInputFormat": null,
"allowAccessOutsideWorkspace
我尝试在node.js项目中使用谷歌云语音转换文本。它可以很好地处理磁盘上的较小文件,但我希望获得存储在AWS S3中的较长文件。是否可能或我需要使用谷歌云存储?您可以在node.js代码中使用谷歌云存储库来访问AWS s30存储:
“云存储XML API可与一些云存储工具和库进行互操作,这些工具和库与Amazon Simple Storage Service(Amazon S3)和Eucalyptus Systems,Inc.等服务协同工作。要使用这些工具和库,请更改工具或库使用的请求端点(U
标签: Amazon S3
aws-amplifyamplifyjsaws-amplify-sdk-js
我试图制作一个网页来查看S3中Cognito accounts私有文件夹中的所有文件。我使用的是Amplify Auth和Storage插件,我知道它们都配置正确,因为我已经可以上传文件了。我找到了关于Github问题的线程,但该线程中提到的内容对我都没有帮助。通过调试日志,我可以看到它正确解析了路径,因为我得到了正确的路径,但只返回了一个空数组。我甚至尝试过解析公用文件夹,它有一个测试文件,只是为了确保它不是一个可访问的东西,但它有完全相同的问题
这是其查找的正确路径,xxxx替换帐户ID。
我被要求执行数据库迁移。我的脚本文件在S3存储桶中。我正在使用flyway进行迁移。我该如何提及flyway。位置:用于此场景?这是flyway的一个突出功能要求。请投票赞成,我们将考虑6.3! 这是对Flyway的突出功能要求。请投票赞成,我们将考虑6.3!
是否有方法跳过阅读S3使用者中的文件夹?
我有多条从一个bucket消费的路由,每条路由使用不同的前缀。通过这种方式,他们模拟从某些文件夹中读取,但最终会消耗“文件夹”本身,然后将其删除
如果无法避免在中读取,是否有方法避免删除这些“文件夹”读取标题S3Constants.KEY(CamelAwsS3Key)以跳过文件夹。
试试这个
from(awsUri)
.choice()
.when(header(S3Constants.KEY).isNotEqualTo(&quo
我们正在将React应用程序(使用create React app创建)部署到AWS S3中,并将其用作静态站点
构建包含许多扩展名为.map的sourcemap文件
我们知道,通过package.json中的以下行,我们可以禁用sourcemap文件生成
“build”:“GENERATE\u SOURCEMAP=false react scripts build”,
但我们不想那样做。我们希望有.map文件,但它不应该由S3提供
请提供您的建议,打开或关闭S3中的任何设置,以便不提供sour
是否可以编写AWS S3策略,以便
可以读取bucket中名称以“archive”结尾的所有对象(bucket名称以archive结尾,不限制对象名称)
可以读写以“输出”结尾的存储桶中的所有对象
那能做到吗
我找不到允许我这么做的“条件”
谢谢
附言:
1) 我只是编辑了这个问题,因为它是bucket还是以“…”结尾的对象名都有歧义
2) 从那以后,我发现我无法过滤可以列出的桶的名称
3) 来自的评论清楚地表明,无论如何,这将是一个坏主意不,这是不可能的
您要求的是适用于多个存储桶的策略。因此
我正在尝试复制AMP网站以获取知识。
技术栈:AWS S3静态托管网站、AWS Cloudfront、AWS EC2、AWS Elastic Beanstalk、谷歌加速移动页面、Flask、jwt、CORS mongodb
以下URL在下面列出的应用程序/json中指定:
“/sign-in?rid=READER\u ID&url=CANONICAL\u url&ref=DOCUMENT\u referer&=RANDOM”
“/sign-up?rid=READER\u ID&url=CANO
所以我试着按照文档中的指南来做,我被困在这里了
Storage.get('test.txt', {
level: 'protected',
identityId: 'xxxxxxx' // the identityId of that user
})
.then(result => console.log(result))
.catch(err => console.log(err));
如何获得该identityId?我在成功用户登录时将identityId保存到自定
我有一个Flink 1.8.2应用程序在Kinesis Data Analytics托管环境上运行。该应用程序从Kinesis数据流读取数据,并将聚合数据写入S3。我收到“拒绝访问”异常。已验证IAM角色权限。看起来一切正常-它对S3 bucket和KMS密钥有必要的权限
bucket策略强制使用PutObject API上载的数据使用KMS密钥加密。如何在Flink应用程序中配置StreamingFileLink连接器以设置KMS加密
流化文件链接代码片段
private static Str
我有一个在AWS EKS上运行的Kubernetes群集,
现在我想在pod中处理S3对象创建事件,
就像我对AWS Lambda一样
如何从Kubernetes集群内部处理S3事件?使用并编写代码订阅队列并记录这些事件。不确定我是否理解正确,但我可以假设您正在寻找类似于K8s作业的任务?让我知道这是否是方向,我可以在这方面提供更多指导。我有一个Lambda触发器,通过上传到S3 bucket,现在我想用一个运行在EKS上的K8s集群内的容器来替换Lambda。
Wowza服务器引擎-如何流式播放AWS s3存储桶中存储的mp3音频文件-需要配置和使用播放URL的方式
Wowza版本:4.8.5
尝试了以下方法:
嗨,我有一个试用帐户。我想流式传输存储在AmazonS3存储桶中的音频文件。我已经在本地创建了一个应用程序。这是为了VOD边缘(参考本文档-),也为媒体缓存设置了一个服务器,因为我已经创建了一个新的存储和源。但根据上述文件。我已经创建了URL,但并没有在测试播放器和VLC播放器中工作。请指导我如何获取存储在amazon s3 bucket上的流
我想作为URL访问该图像,但S3 bucket不允许,并且出于组织安全原因,我们无法更改S3 bucket的配置
HttpRequest req = new HttpRequest();
req.setEndpoint('callout:AWS_S3' + fileUrlForNamedCred);
req.setMethod('PUT');
req.setHeader('Content-Encoding', '
大家早上好。我有一个GCS存储桶,其中包含从Amazon S3存储桶传输的文件。这些文件是.gz.parquet格式的。我正在尝试使用传输功能设置从GSC bucket到BigQuery的传输,但是我遇到了拼花文件格式的问题
当我创建传输并将文件格式指定为拼花时,我收到一个错误,指出数据不是拼花格式。当我尝试在CSV中指定文件时,奇怪的值出现在我的表中,如链接的图像所示:
我尝试了以下URI:
bucket name/folder-1/folder-2/dt={run_time}%Y-%m-
我正在考虑使用GoogleDrive作为一个可扩展的基于云的数据存储解决方案(如AmazonS3),用于我正在开发的web应用程序。Google Drive在这方面是一个好的解决方案吗?我不能为Amazon S3说话,但Google Drive上的数据存储是由用户而不是应用程序拥有的
因此,这实际上取决于您的web应用程序的用例,如果您希望用户拥有数据并能够使用其他应用程序打开数据,请使用Google Drive
如果数据应该对用户隐藏,您可以使用其他云存储解决方案。Ya,它在这方面与dropb
我将客户资产存储在S3中,账户相关值作为每个资产路径中的第一个元素,例如
account-1/media/video/382476581823.mp4
account-1/images/2348752.png
我想找到一个帐户的所有资产所消耗的存储总量——上面示例中路径前缀为“account-1”的所有资产。我有一个可行的解决方案,它迭代S3查询返回的ObjectSummary对象,但是对于我的需要来说,它太慢了,因为它对每个对象执行HTTP请求
我想知道是否有可能在S3查询中执行类似于使用
我想在AWS S3中构建一个数据湖,并询问自己如何与CDC合作。我希望避免从源中加载整个数据,而且我希望避免目标中的重复数据。有没有一些行之有效的方法来解决这个问题 您可以参考以下博客:
重复数据消除由AWS Glue通过在原始数据上运行作业来完成。这会将数据转储到另一个bucket,该bucket将镜像复制源数据库。您可以参考以下博客:
重复数据消除由AWS Glue通过在原始数据上运行作业来完成。这会将数据转储到另一个bucket,该bucket将是源数据库的镜像复制。您能否消除CDC
我们如何确保将特定策略(例如S3 bucket访问限制策略)附加到所有新创建的角色
我们是否可以编写一个Lambda,该Lambda仅在创建新角色时触发,并检查是否缺少附加的必需策略
AttachRolePolicy API可用于将策略附加到角色。AWS Lambda中是否有任何示例可用于实现此目的
Terraform是否提供了任何可在本文中引用的现成模块。是的,这是可能的。您可以配置一个lambda函数,该函数在调用特定的AWS API时由EventBridge通过CloudTrail触发。看
1 2 3 4 5 6 ...
下一页 最后一页 共 65 页