Amazon s3 亚马逊简单存储服务(S3)的经济性

我有一个网站,每月吸引大约30000名访问者。它有很多照片和PDF文件,占用了大量带宽。它由site5.com托管,每月约5美元,提供无限带宽和存储。根据site5的统计数据,我的站点每天大约有20GB的下载量,但我看到它高达11GB。上传范围为每天5-15GB。(尽管如此,我并不是每天都上传东西,所以我不知道这些数字是从哪里来的。) 我期待着我的网站能有更大的发展,可能是通过托管视频、高分辨率照片等方式,我正在寻找其他存储选项,尽管site5已经相当不错了。具体来说,amazon.com(S3

Amazon s3 仅列出jets3t中的第一级文件

我正在使用jets3t列出我们其中一个存储桶上的文件。我注意到它返回了一切。我希望按目录遍历bucket,而不是一次获取所有文件,这将花费太长时间,因此我很好奇是否有办法只获取第一级的文件 例如: \Bin -\file1.txt -\文件夹1 ----\file2.txt 因此,基本上获取file1.txt和folder1对象,但不要深入获取folder1中的file2.txt。 上面的S3Service方法接受一个bucket名称、一个前缀和一个分隔符来缩小返回结果的范围

Amazon s3 如果文件存储在云中,Dropbox等服务如何实现增量编码?

Dropbox声称,在同步过程中,仅将更改的部分文件传输回主服务器,这显然是一个很好的功能,但它们如何对存储在AmazonS3云中的文件执行更改?例如,假设用户桌面上的30页文档只包含对第4页的更改。Dropbox现在同步表示更改的块,如果它们存储的文件在云中,后端会发生什么?这是否意味着他们必须将存储在S3中的30页文档下载到他们的服务器,然后替换代表第4页的块,然后上传回云?我怀疑情况会是这样,因为那样会有点低效。我可以想到的另一个选项是,如果AmazonS3提供了基于字节范围的云存储文件更

Amazon s3 用于Amazon S3的dropbox等文件同步应用程序

我正为一个小问题而挣扎。在过去的几天里,我一直在想,如果有一款dropbox应用程序,可以让文件夹与我的AmazonS3后端保持同步,那该有多好。遗憾的是,我并没有尝试过很多,但从阅读中,我还没有找到任何应用程序能够完全实现dropbox的功能 我不想安装网络驱动器之类的东西 我很确定我自己能够编写一个小应用程序,可以从amazon s3 bucket上传和下载文件,但一想到它,我就进退两难了 据我所知,dropbox和svn一样,只提交其更改。那么,有没有人能够提供一些关于幕后工作的信息 如果

Amazon s3 如何让AmazonS3编码函数理解存储桶中的子文件夹?

我编写了以下函数来编码我的S3链接,以便它们处理Amazon的S3编码系统来保护链接。问题是,它只在文件在bucket中时才起作用。如果我在bucket上创建一个子文件夹并将文件粘贴在其中,那么它就不起作用了。我做错了什么 function encodeS3($sURL,$sAccessKey,$sSecretKey,$nExpireMinutes = 5) { $sFile = basename($sURL); $sBucket = basename(str_replace('/' .

Amazon s3 配置单元未正确创建CSV文件

我正在尝试将配置单元结果导出到位于AmazonS3上的文件 但是结果文件有一些无法识别的字符,如square等 结果文件格式的类型是二进制/八位字节流,而不是csv 我不明白为什么它不能创建csv文件 使用的配置单元版本为hive-0.8.1 我把我遵循的步骤放在下面 顺便说一句,hive是从Amazon EMR启动的实例中使用的 create table test_csv(employee_id bigint, employee_name string, employee_designati

Amazon s3 使用/etc/fstab自动装载多个s3fs存储桶

在s3fs指令wiki中,我们被告知可以通过在/etc/fstab s3fs#mybucket /mnt/mybucket fuse allow_other,use_cache=/tmp,url=https://s3.amazonaws.com 0 0 这对于1个bucket很好,但当我尝试通过2行代码将多个bucket装载到1个EC2实例上时: s3fs#mybucket /mnt/mybucket fuse allow_other,use_cache=/tmp 0 0 s3fs

Amazon s3 配置单元-动态分区:更新表时加载时间长,分区多

我通过AWS EMR运行Hive,并有一个作业流,可以频繁地将日志数据解析到S3中。我对解析的配置单元表使用动态分区(日期和日志级别) 当我有几GB的数据和大量的分区时,一件需要花费很长时间的事情是当Hive在解析完成后将数据加载到表中时 Loading data to table default.logs partition (dt=null, level=null) ... Loading partition {dt=2013-08-06, level=INFO} L

Amazon s3 使用Ink(文件选择器)上载s3文件时访问被拒绝

我们使用的是Ink FilePicker,它非常适合我们,除了一个特定的用例。当通过URL上传并指定指向s3文件的链接时,我们会收到拒绝访问错误。其他链接工作正常,其他HTTPS链接工作正常。根据FilePicker文档,bucket策略设置为公开所有上载 谢谢您的帮助。您是否已根据FilePicker建议创建了IAM权限: 您需要在FilePicker中正确设置这些凭据 你需要这个才能获得许可。FilePicker还提供了有关如何正确设置S3的详细信息。嗨,Suman,感谢您抽出时间。权限很

Amazon s3 不带前缀的文件名

我已经使用雾一段时间了,它工作得很好。我最近遇到了一个问题,我正在遍历目录中的每个文件 d = S3.directories.get(“XXXXX”, prefix: “XX”) d.files.each do |f| puts f.key end 在本例中,f.key不仅提供文件名,还提供前缀,例如:pathtofile/file1.txt。如何仅获取文件1 谢谢由于键看起来像文件名,您可以使用File.basename: d.files.each do|f| 放置文件.basename(

Amazon s3 AmazonS3WebDAV访问

我想在没有第三方软件的情况下访问我的AmazonS3存储桶,但只需通过大多数操作系统中可用的WebDAV功能即可。有办法吗?对我来说,不需要第三方软件是很重要的。S3不支持webdav,所以你运气不好 而且,S3不支持层次名称空间,因此不能直接将文件系统映射到它 这里有一个示例java项目,用于将webdav服务器置于AmazonS3之上-有很多方法可以做到这一点。我不确定你的情况,所以他们在这里: 选项1:最简单:您可以使用第三方“云网关”提供商,如 选项2:设置您自己的“云网关”服务器 设

Amazon s3 将AmazonS3连接到QlikView以提取数据

我有一个Hadoop作业,每天都在执行。然后生成一个文本文件,然后存储在AmazonS3上 我希望将相同的数据拉入QlikView。我有什么办法可以完成这项任务吗 QlikView没有用于Amazon S3的本机连接器,但是,您可以使用一种产品将S3存储桶连接到QlikView所在的机器,以便QlikView可以在本地获取您的文件,即它可以将驱动器映射到S3存储桶 有相当多的产品提供此功能,下面列出了一些。大多数是付费和YMMV: (提供单连接的免费版本) (免费版) 我使用的是“TNTD

Amazon s3 如果我将文件流式传输到s3,那么一旦文件完成,事件是否会触发?

正如标题所说,如果我为put事件将一个事件附加到S3存储桶,并将一个文件流式传输到该存储桶,那么一旦上传开始,事件会触发吗?这样,接收方就可以开始下载该文件的流 或者该事件是否会在文件上传完成后触发?您考虑的问题有两个: 直到上传完成,事件才会触发 将对象写入S3始终是一个原子操作。写入操作要么成功完成,要么根本没有发生。。。在成功完成之前,对象实际上并不存在于bucket中 如果您正在将一个新对象写入一个bucket,对该对象的授权请求将返回404错误,至少在上传成功完成之前是这样 如果要

Amazon s3 Datastax OpsCenter 5.2.0无法备份到Amazon S3

当我使用Opscenter创建AmazonS3备份作业时,它会失败,日志和浏览器中会显示以下消息。它在创建步骤中失败。。我已尝试使用所有键空间和单个键空间…DSE版本4.7.1。。Opscenter版本5.2.0。我刚刚创建了这个集群。。以及首次创建备份作业 请告知 2015-07-31 11:41:35+0000[]错误:调用decorator时出现问题(LibcloudError):“此存储桶位于不同的区域。请使用正确的驱动程序。“> 文件“/usr/share/opscenter/lib/

Amazon s3 google Storage Transfer API在计算步骤中遇到问题

当我试图从控制台使用GoogleAPI启动从AmazonS3到GoogleGCS的传输时,我的传输一直停留在“计算”步骤。我已经使用这个API四个月了,这是我第一次有这种行为。可能这个问题与上一个API版本的部署有关。我也有同样的问题。转移卡在计算步骤…是的,这里也是。我正在使用TSV传输我的文件。开始使用TSV处理所有文件时,只使用一个文件进行了尝试。计算起来需要多长时间??似乎要花很长时间。

Amazon s3 如何使用S3预签名URL指定服务器端加密?

这是一个S3问题,所以我在这里发布,而不是在Salesforce stackexchange中发布 基本上,我的Salesforce代码为S3生成预签名URL。前端使用这些文件来上载和下载文件 这是完美的工作。现在我们需要指定SSE(服务器端加密)。 根据文档,SSE-S3不适用于预签名URL 因此,我必须将SSE与客户生成的密钥一起使用。 这里的文字是这样说的: 创建预签名URL时,必须使用x-amz服务器端指定算法​-加密​-签名计算中的客户算法。 这就是我计算签名的方式,它可以很好地将

Amazon s3 在S3上获取未压缩大小的上载文件,无需下载

是否有可能在S3存储桶中获得未压缩和压缩大小的文件而不下载它们 我在S3上有大约750个压缩文件,从650MB到1.2GB不等,我想得到压缩和未压缩文件的总大小。我可以下载它们并使用以下工具: gzip -l *gz 但是我必须先下载它们,这似乎需要做很多工作才能得到总尺寸。不,这是不可能的。AmazonS3存储原始文件。它不提供处理文件的功能 有必要下载并分析文件内容 将S3视为一种存储服务。它非常耐用和可靠,但基本上只是一种存储服务。您希望对数据执行的任何操作都必须在其他地方执行,就像数据

Amazon s3 如何获得aws S3存储桶的准确位置

这是否可能在没有访问权限或密钥的情况下获得aws存储桶位置的准确驻留? 或者如何获得准确的aws S3存储桶位置而不是区域?您在问什么?bucket没有一个“位置”比设置它的AWS区域更具体——bucket在该区域的可用性区域中分布且冗余。我正在尝试获取一个位置而不是区域AWS区域是bucket的位置。请举例说明您希望找到的“位置”值。

Amazon s3 在AWS EMR上创建配置单元外部表

我正试图通过AWS EMR上的hue在hive中创建一个外部表 CREATE EXTERNAL TABLE IF NOT EXISTS urls ( id STRING, `date` TIMESTAMP, url STRING, expandedUrl STRING, domain STRING ) PARTITIONED BY (`year` INT, `month` INT, `day` INT) STORED AS PARQUET LOCATION 's3://da

Amazon s3 向密钥名称添加随机前缀以提高S3性能?

您希望这个bucket每秒立即接收超过150个PUT请求。公司应该如何确保最佳绩效 A) AmazonS3将自动管理这种规模的性能 B) 向键名称添加随机前缀 正确答案是B,我正试图弄清楚为什么是B。有人能解释一下B的意义吗?如果它仍然是真的?查找/写入工作意味着使用相似或有序的文件名可能会损害性能 仍然建议在S3键之前添加哈希/随机ID,以减轻大量访问对象的高负载 自2018年7月17日AWS发布以来,不再需要对S3密钥进行散列和随机前缀,以提高性能: 如何将随机性引入S3 使用随机十六进制

Amazon s3 从S3保存和加载模型

有没有办法让H2O集群直接保存/加载到S3 model.save('s3n://my-domain/gbm-from-the-future') model.load('s3n://my-domain/gbm-from-the-future') 历史上,我通过以下方式实现了这一目标: -保存到群集之外的文件系统 -与S3同步 -从S3下载 -从文件系统加载 显然,必须从集群本身找到更好的方法。根据Python for h2o.save_模型,这已经得到了支持。您没有提到您正在使用哪些API,因此

Amazon s3 将对象的数量限制为S3存储桶中的特定数量

我有一个S3存储桶,其中存储了某些构建输出。我希望保持在那里的内容,以一个特定的数字。到目前为止,我所看到的是,S3存储桶中可以存储的对象数量没有限制,但如何将它们限制在特定数量上却没有限制。AWS是否提供该选项?不,bucket上没有这样做的选项。然而,创建一个Lambda函数来侦听S3 bucket事件并做出相应的反应将非常简单——在您的例子中,可能是删除旧文件。介绍将S3事件发送到Lambda函数的示例场景。当它超过该数字时,您希望发生什么?它应该阻止添加新对象,还是删除旧对象(以及如何指

Amazon s3 每当S3存储桶的内容发生变化时通知

每当在s3存储桶中创建对象时,我都能够向lambda函数添加触发器/通知。我还想在对象更新/更改时得到通知。当s3 bucket中的对象更改时,有没有办法通过SNS或lambda执行获得通知 S3中的对象及其元数据是不可变的。更改它们的唯一方法是替换它们,因此s3:ObjectCreated:*事件将捕获对象创建、对象覆盖和元数据更新

Amazon s3 AmazonS3对象过期

我读了很多关于如何使AmazonS3对象过期(删除)的文章,并试图设置生命周期规则来实现这一点,但是这些对象并没有被删除,我想知道我做错了什么 S3上的对象组织如下: Amazon S3 > my-test-bucket > my-test-org > a.csv, b.xml, c.xsl... 如果

Amazon s3 连续部署不起作用

我需要不断地构建一个应用程序并将其部署到AmazonS3 bucket 我已经编写了以下CircleCi config.yml: 我认为应该发生的事情: 我有一个docker容器,我安装了应用程序,构建了它,并且文件已经准备好放在build文件夹中。 我在CircleCi文档中列出,构建文件正在从docker机器移动到s3 bucket。 要将项目部署到S3,可以在中使用以下命令 circle.yml的部署部分: aws s3同步s3://-删除 实际发生的情况: 正在安装应用程序并创建生成文件

Amazon s3 如何使用aws cli设置S3存储桶中文件夹的权限?

我有一个名为world的存储桶,在该存储桶下有一个文件夹world1。我从ACL向所有人授予了列表对象访问权限,并设置了一个低于bucket的策略,但仍然无法访问world1文件夹中存储的对象。获取拒绝访问错误 { "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject" ], "E

Amazon s3 将内容编码头添加到已签名的URL上载文件

我需要通过一个签名的URL将Gziped内容上传到S3 下面是我如何使用JS后端生成签名URL的: s3.createPresignedPost({ Bucket: 'name', Fields: { key: 'key' } }) 我已尝试将内容编码头传递给signedURL POST请求,但没有成功。s3对象上的标题设置不正确 我还尝试设置一个上传后lambda来更新元数据。它失败,出现错误文件相同错误 最后,我尝试使用cloudfront+lambda强制执行一个标题

Amazon s3 是否可以将s3proxy配置为在与{host}:{port}不同的url上响应?

我想让s3proxy在类似{host}:{port}/s3的url上响应,而不仅仅是{host}:{port}。是否可以以某种方式重新配置默认端点 我试图设置类似于s3proxy.endpoint={host}:{port}/s3的属性,但出现错误: 端点路径必须为空,was:/s3。 我还尝试将JCLOUDS_端点设置为/s3——也没有运气 我的属性文件如下所示: s3proxy.authorization=none s3proxy.endpoint=http://127.0.0.1:80/s

Amazon s3 我可以将AWS S3与Google Speech结合使用,将文本转换为更大的文件吗?

我尝试在node.js项目中使用谷歌云语音转换文本。它可以很好地处理磁盘上的较小文件,但我希望获得存储在AWS S3中的较长文件。是否可能或我需要使用谷歌云存储?您可以在node.js代码中使用谷歌云存储库来访问AWS s30存储: “云存储XML API可与一些云存储工具和库进行互操作,这些工具和库与Amazon Simple Storage Service(Amazon S3)和Eucalyptus Systems,Inc.等服务协同工作。要使用这些工具和库,请更改工具或库使用的请求端点(U

Amazon s3 返回空数组的Storage.list()

我试图制作一个网页来查看S3中Cognito accounts私有文件夹中的所有文件。我使用的是Amplify Auth和Storage插件,我知道它们都配置正确,因为我已经可以上传文件了。我找到了关于Github问题的线程,但该线程中提到的内容对我都没有帮助。通过调试日志,我可以看到它正确解析了路径,因为我得到了正确的路径,但只返回了一个空数组。我甚至尝试过解析公用文件夹,它有一个测试文件,只是为了确保它不是一个可访问的东西,但它有完全相同的问题 这是其查找的正确路径,xxxx替换帐户ID。

Amazon s3 跳过Camel S3使用者中的文件夹

是否有方法跳过阅读S3使用者中的文件夹? 我有多条从一个bucket消费的路由,每条路由使用不同的前缀。通过这种方式,他们模拟从某些文件夹中读取,但最终会消耗“文件夹”本身,然后将其删除 如果无法避免在中读取,是否有方法避免删除这些“文件夹”读取标题S3Constants.KEY(CamelAwsS3Key)以跳过文件夹。 试试这个 from(awsUri) .choice() .when(header(S3Constants.KEY).isNotEqualTo(&quo

Amazon s3 AWS/S3/静态站点:如何过滤正在提供的sourcemap或.map文件

我们正在将React应用程序(使用create React app创建)部署到AWS S3中,并将其用作静态站点 构建包含许多扩展名为.map的sourcemap文件 我们知道,通过package.json中的以下行,我们可以禁用sourcemap文件生成 “build”:“GENERATE\u SOURCEMAP=false react scripts build”, 但我们不想那样做。我们希望有.map文件,但它不应该由S3提供 请提供您的建议,打开或关闭S3中的任何设置,以便不提供sour

Amazon s3 允许访问以特定名称结尾的存储桶的AWS S3策略

是否可以编写AWS S3策略,以便 可以读取bucket中名称以“archive”结尾的所有对象(bucket名称以archive结尾,不限制对象名称) 可以读写以“输出”结尾的存储桶中的所有对象 那能做到吗 我找不到允许我这么做的“条件” 谢谢 附言: 1) 我只是编辑了这个问题,因为它是bucket还是以“…”结尾的对象名都有歧义 2) 从那以后,我发现我无法过滤可以列出的桶的名称 3) 来自的评论清楚地表明,无论如何,这将是一个坏主意不,这是不可能的 您要求的是适用于多个存储桶的策略。因此

Amazon s3 为什么Cloudfront拒绝访问?

我正在尝试复制AMP网站以获取知识。 技术栈:AWS S3静态托管网站、AWS Cloudfront、AWS EC2、AWS Elastic Beanstalk、谷歌加速移动页面、Flask、jwt、CORS mongodb 以下URL在下面列出的应用程序/json中指定: “/sign-in?rid=READER\u ID&url=CANONICAL\u url&ref=DOCUMENT\u referer&=RANDOM” “/sign-up?rid=READER\u ID&url=CANO

Amazon s3 使用AWS Amplify在何处以及如何获取“identityId”?

所以我试着按照文档中的指南来做,我被困在这里了 Storage.get('test.txt', { level: 'protected', identityId: 'xxxxxxx' // the identityId of that user }) .then(result => console.log(result)) .catch(err => console.log(err)); 如何获得该identityId?我在成功用户登录时将identityId保存到自定

Amazon s3 如何在写入S3的Apache Flink应用程序中为StreamingFileLink配置KMS加密

我有一个Flink 1.8.2应用程序在Kinesis Data Analytics托管环境上运行。该应用程序从Kinesis数据流读取数据,并将聚合数据写入S3。我收到“拒绝访问”异常。已验证IAM角色权限。看起来一切正常-它对S3 bucket和KMS密钥有必要的权限 bucket策略强制使用PutObject API上载的数据使用KMS密钥加密。如何在Flink应用程序中配置StreamingFileLink连接器以设置KMS加密 流化文件链接代码片段 private static Str

Amazon s3 如何处理Kubernetes集群内的S3事件?

我有一个在AWS EKS上运行的Kubernetes群集, 现在我想在pod中处理S3对象创建事件, 就像我对AWS Lambda一样 如何从Kubernetes集群内部处理S3事件?使用并编写代码订阅队列并记录这些事件。不确定我是否理解正确,但我可以假设您正在寻找类似于K8s作业的任务?让我知道这是否是方向,我可以在这方面提供更多指导。我有一个Lambda触发器,通过上传到S3 bucket,现在我想用一个运行在EKS上的K8s集群内的容器来替换Lambda。

Amazon s3 Wowza-如何流式播放存储在AWS s3 bucket中的mp3音频文件-需要配置和使用palyback URL的方法

Wowza服务器引擎-如何流式播放AWS s3存储桶中存储的mp3音频文件-需要配置和使用播放URL的方式 Wowza版本:4.8.5 尝试了以下方法: 嗨,我有一个试用帐户。我想流式传输存储在AmazonS3存储桶中的音频文件。我已经在本地创建了一个应用程序。这是为了VOD边缘(参考本文档-),也为媒体缓存设置了一个服务器,因为我已经创建了一个新的存储和源。但根据上述文件。我已经创建了URL,但并没有在测试播放器和VLC播放器中工作。请指导我如何获取存储在amazon s3 bucket上的流

Amazon s3 Amazon S3拼花地板文件-传输到GCP/BQ

大家早上好。我有一个GCS存储桶,其中包含从Amazon S3存储桶传输的文件。这些文件是.gz.parquet格式的。我正在尝试使用传输功能设置从GSC bucket到BigQuery的传输,但是我遇到了拼花文件格式的问题 当我创建传输并将文件格式指定为拼花时,我收到一个错误,指出数据不是拼花格式。当我尝试在CSV中指定文件时,奇怪的值出现在我的表中,如链接的图像所示: 我尝试了以下URI: bucket name/folder-1/folder-2/dt={run_time}%Y-%m-

Amazon s3 Google Drive是一个很好的web应用数据存储解决方案吗?

我正在考虑使用GoogleDrive作为一个可扩展的基于云的数据存储解决方案(如AmazonS3),用于我正在开发的web应用程序。Google Drive在这方面是一个好的解决方案吗?我不能为Amazon S3说话,但Google Drive上的数据存储是由用户而不是应用程序拥有的 因此,这实际上取决于您的web应用程序的用例,如果您希望用户拥有数据并能够使用其他应用程序打开数据,请使用Google Drive 如果数据应该对用户隐藏,您可以使用其他云存储解决方案。Ya,它在这方面与dropb

Amazon s3 查找具有特定路径前缀的资产的S3聚合内容长度

我将客户资产存储在S3中,账户相关值作为每个资产路径中的第一个元素,例如 account-1/media/video/382476581823.mp4 account-1/images/2348752.png 我想找到一个帐户的所有资产所消耗的存储总量——上面示例中路径前缀为“account-1”的所有资产。我有一个可行的解决方案,它迭代S3查询返回的ObjectSummary对象,但是对于我的需要来说,它太慢了,因为它对每个对象执行HTTP请求 我想知道是否有可能在S3查询中执行类似于使用

Amazon s3 在AWS上实施cdc和重复数据消除

我想在AWS S3中构建一个数据湖,并询问自己如何与CDC合作。我希望避免从源中加载整个数据,而且我希望避免目标中的重复数据。有没有一些行之有效的方法来解决这个问题 您可以参考以下博客: 重复数据消除由AWS Glue通过在原始数据上运行作业来完成。这会将数据转储到另一个bucket,该bucket将镜像复制源数据库。您可以参考以下博客: 重复数据消除由AWS Glue通过在原始数据上运行作业来完成。这会将数据转储到另一个bucket,该bucket将是源数据库的镜像复制。您能否消除CDC

Amazon s3 我们是否可以使用AWS Lambdas检查所有新创建的角色是否缺少任何强制策略

我们如何确保将特定策略(例如S3 bucket访问限制策略)附加到所有新创建的角色 我们是否可以编写一个Lambda,该Lambda仅在创建新角色时触发,并检查是否缺少附加的必需策略 AttachRolePolicy API可用于将策略附加到角色。AWS Lambda中是否有任何示例可用于实现此目的 Terraform是否提供了任何可在本文中引用的现成模块。是的,这是可能的。您可以配置一个lambda函数,该函数在调用特定的AWS API时由EventBridge通过CloudTrail触发。看

  1    2   3   4   5   6  ... 下一页 最后一页 共 65 页