我知道可以使用bucket策略将文件访问限制到指定的HTTP referer,但是否可以基于每个对象执行此操作?我们希望桶中的大多数图像都可以公开访问;如果您有链接,那么您应该能够将其复制并通过浏览器查看
我们的应用程序已经到了一个地步,我们想限制其中的一些图片,以便它们只能由我们从我们的网站抛出。然而,我只是通过设置一个包罗万象的bucket策略看到了这个功能。是否可以在特定对象的生命周期内设置此选项,而不是在存储桶中的所有对象上设置此选项
谢谢 是的,您可以限制为前缀路径和对象。您所需要做的
我使用CPM恢复了一个EC2实例,当我试图通过ssh连接到该实例时,我得到一个操作超时错误。有什么想法吗?这是一个Ubuntu 12.04服务器。Eric Hammond在
解决问题后,请随时使用相关信息更新此社区wiki。公共ip或安全组是否有任何更改?@datasage我刚刚使用CPM直接恢复实例。没有编辑公共IP或安全组的选项。不过,公共IP已经发生了变化——损坏的实例仍然存在,只是停止了。从CPM恢复实例只是在EC2中创建一个新副本。
我们正在使用签名URL来传递一些视频内容。当直接浏览到已签名的URL时,查看网络探查器,可以看到URL连接了4次。为什么要这样做
下面的屏幕截图是一个全新的、生成的链接,因此该文件决不会被缓存。我之所以这么说,是因为cloudFront在过去一周为我们加载视频的速度非常慢。屏幕截图中的视频为一个半小时,开始播放大约需要20-30秒
我们放在rackspace上的文件在5秒内开始播放
发生的情况是第一行立即取消,第二行开始下载,在大约3.5mb下载时,它取消并启动第三行和第四行。第四行最后是开
我对通过html5捕捉视频感兴趣。问题是视频与音频是分开捕获的。因此,要制作带有音频的视频,必须将它们合并在一起。看来ffmpeg会起作用
有人知道AWS转码器是否也会执行此操作吗 AWS转码器只能接受1个文件。无法合并2。你试过ffmpeg吗
如何从浏览器运行和访问EC2 Docker中的iPython笔记本
这就是我所尝试的:
从EC2快速启动菜单中,选择t2.micro实例上的Amazon Linux AMI 2015.03。
除了为“配置安全组”创建的3条规则外,所有内容都保留为默认设置:
类型:SSH;协议:TCP;端口范围:22;资料来源:任何地方;
类型:HTTPS;协议:TCP;港口范围:443;资料来源:任何地方;
类型:自定义TCP规则;协议:TCP;港口范围:8888;资料来源:任何地方;
SSH’ing到实例后:
我无法通过internet连接到我的公共dns,它是windows web服务器,公共dns是
我有一个安全组,它允许入站和出站的任意源的80端口HTTP
我可以将rdp导入服务器,使用时可以看到我的nginx页面
我希望从公共dns上看到nginx页面?????但我不能
我的Web服务器位于VPC内的公共子网中
请帮忙!谢谢您能确认您的windows计算机上没有启用firefall吗?@30我不建议发布服务器真实IP。解决这个问题并不需要它。看起来防火墙已经打开了,我的朋友创建了一个类似的w
如果我清除浏览器缓存,所有加载的内容都将从启用cloudfront的S3存储桶中找到。但是,当我关闭缓存时,控制台中会出现错误:
源站图像[源站URL]已被跨源站资源共享策略阻止加载:请求的资源上不存在“访问控制允许源站”标头。因此,不允许访问源[我的本地主机地址]
我的CORS配置:
<?xml version="1.0" encoding="UTF-8"?>
<CORSConfiguration xmlns="http://s3.amazonaws.com/doc/2006
我在EC2上有两台服务器。一个托管我的php应用程序,另一个托管我的redis服务器。我在redis服务器上管理我的php会话和数据。因此,在我的php服务器上,我给出了ip:port作为会话保存路径,并在stderr:php消息:php致命错误:未捕获异常“redisception”和消息“Connection closed”中收到了FastCGI发送的错误
我需要在我的redis实例上打开6379端口进行入站流量。我通过在AWS安全组中设置自定义TCP设置打开了它,但该端口仍然对外部世界关闭
我正在尝试调用AWS Lambda中的代码。此Lambda代码已使用“我的物联网”按钮配置。在运行这段代码时,我没有看到任何错误。此外,我在移动设备上看不到所需的推送通知
我可以在控制台中看到此消息:MissingRequiredParameter:在参数中缺少必需的键“message”
这是我的代码:
'use strict';
console.log('Loading function');
var AWS = require('aws-sdk');
var sns = new
我有一个子域api.example.com,它有两个REST端点endpoint,endpoint1和endpoint2,理想情况下可以托管在不同的服务器上,比如EC2实例。有没有办法配置我正在使用的Amazon Route 53的DNS记录,以便api.example.com/endpoint1和api.example.com/endpoint2可以分别指向它们自己的服务器?我认为这是不可能的,但我只是想再核实一下。如果确实不可能,是否有其他方法可以理想地使用AWS将两个端点指向不同的服务器?
通过CI/CD部署CloudFormation是否是一种好的做法?我目前正在考虑安全和性能方面的问题
例如,如果有人意外删除了一个DB,CloudFormation只会删除它。。。可能会有代码审查来防止这种情况。。。但我只是想知道这是否是一个好的做法
使用无服务器应用程序可能没有选择?与其他方式一样,它太过手动,无法部署所有内容
另一个观察是性能,CloudFormation很少改变,但如果它是CI/CD进程的一部分,则无论如何都需要运行它。有没有办法加快速度 绝对是。如果您将基础架构视为软件I
调用CreateBucket操作时InvalidLocationConstraint出错:使用命令时指定的位置约束无效
aws s3api create-bucket --bucket my-bucket
--create-bucket-configuration LocationConstraint=region
如果您的地区是us-east-1,那么您只需运行该命令而不带-location约束,因为默认情况下,bucket是在us-east-1地区创建的如果您的地区是us-east-1,那
我开发了一个Alexa for business skill,它可以连接到我们的一些本地设备,并在这些设备上执行多项任务。在开发过程中,我给了其中几个设备公共IP地址,以便AWS可以访问它们。但是,我希望AWS能够在它们位于我们的局域网内时连接到它们。我想可以通过VPN进行连接,尽管我不知道这是可能的还是一个好主意。有没有办法做到这一点
谢谢您可以通过使用来实现这一点,但是存在一些限制,因为您的网络必须能够连接到直接连接位置。有关更多信息,请参阅本指南:
按照您的建议,也有使用VPN的选项:
最
我正在使用
GitBash v2.17.0
AWS CLI v1.16.67
视窗10
问题
我在AWS SSM参数存储中创建了一个SecureString参数。例如,让我们调用参数
/levelOne/levelTwo
我正在尝试使用AWS CLI检索参数。为此,我使用以下命令:
aws ssm get-parameters --names '/levelOne/LevelTwo' --with-decryption
问题是返回的结果如下所示:
如您所见,该参数的前缀为C:/Pro
我必须创建许多AWS API网关API。所有API都将使用Lambda函数进行调用。这些新的API还将包括以下常见步骤
API类型为区域API和REST API
添加一个POST方法
方法执行设置
调用类型=Lambda函数,并选择相应的Lambda
作用
CORS设置
Lambda权限
集成响应设置
部署API
在API使用计划中包括阶段
重新部署API
下面是API网关克隆API概要
SYNOPSIS
create-rest-api
--name
我希望使用AWS Lambda中的Athena查询S3存储桶中的数据。当我看一些例子时,Lambda对雅典娜的调用似乎是异步的。Lambda调用Athena并等待Athena将结果写入S3存储桶。有没有一种方法可以直接检索响应,而不必将其写入S3存储桶?没有。Athena将始终将结果写入S3,即使JDBC驱动程序使用了新的半私有流API。知道Athena查询何时完成的唯一方法是使用GetQueryExecution API调用进行轮询。即使像JDBC驱动程序这样看似同步的API也在内部使用这种方
我们的后端API采用AWS无服务器体系结构编写,我们能够从本地系统访问数据库,并且应用程序工作正常,但我们不知道域上的主机应用程序。这是您通常会遵循的体系结构,将angular应用程序与无服务器后端一起托管:
Lambda将用于承载应用程序的后端。您可以使用SAM无服务器应用程序模型或NodeJS无服务器框架来打包和部署后端。
对于前端,即Angular,您将使用S3托管Angular的静态文件。您将使用AWS CloudFront提供静态文件。
对于SSL,您将使用AWS证书管理器ACM。您将
我试图从技术上自动化一些IAM策略的创建,这些是KMS关键策略,但我认为这在Cloudformation中并不重要,因为它避免了任何真正的硬编码字符串。但是,这需要大量的连接和引用,虽然我可以验证yaml是否格式正确,堆栈是否会执行,但它失败了,并且正在生成的策略返回了格式错误的PolicyDocument异常
是否可以让Cloudformation打印或记录生成的策略,以便我可以看到差异是什么
这是一个小片段,我已经仔细检查了这里引用的参数是否定义正确:
- Sid: "Allow secur
我正试图通过管理控制台创建本地二级索引。在DynamoDB中选择所需的表之后,我选择index选项卡并单击createindex。然后,我会收到以下UI的提示。我无法说明索引是本地索引还是全局索引。当索引分区键等于表分区键时,AWS不会自动检查。即使是相同的分区键,AWS也将索引指定为GSI而不是LSI。
我可以通过cli正确配置本地二级索引-这非常好
我只是想知道,你真的可以在管理控制台中正确地执行此操作吗?
您无法从AWS在现有DynamoDB表上创建:
要在表上创建一个或多个本地二级索引,
我试图在Glue catalog中创建一个表,其中包含使用hive在EMR中运行的spark的s3路径位置。我尝试了以下命令,但出现错误:
pyspark.sql.utils.AnalysisException:u'java.lang.IllegalArgumentException:无法从
空字符串;'
sparksession.sqlCREATE TABLE如果不存在abc位置“s3://my bucket/test/”作为从my_表中选择*
sparksession.sqlCREATE T
我将文件上传到AmazonS3,并使用唯一标识符确保没有冲突。上传后,我想在数据库中缓存一个链接,该链接指向具有响应内容类型和响应内容配置参数的文件
不幸的是,这需要对URL进行签名,而且似乎所有签名的URL都需要一个expires参数
我不希望此链接过期。我不明白它为什么要过期
处理这个问题的唯一方法是为每个资源请求动态创建链接吗?我不喜欢在遥远的将来随意创建链接
编辑:
我已将内容类型和内容处置参数添加到POST操作中,这些参数随后将与GET操作一起返回/使用。当我问这个问题时,我没有意识到
我工作的公司有一台Windows Server 2008 R2虚拟机,我们想在该虚拟机上托管Jenkins
我已经安装了Jenkins,它位于默认位置C:\Program Files x86\Jenkins
运行Windows服务工作正常;您可以在服务器上通过浏览http://localhost:8080.
有没有人知道在互联网上实现这一点的最佳方法
注意:我们没有Amazon服务器网络,每台服务器都在自己的域中,该域与我们的office域是分开的。您需要更新安全组,以允许0.0.0.0/0访问
我目前正在使用Ansible实现滚动升级功能
我试图使用动态清单收集ec2_事实,但它输出空值,无法收集任何信息
使用的命令:
ansible localhost -i ec2.py -m ec2_facts
输出
localhost | success >> {
"ansible_facts": {
"ansible_ec2_public-key": null,
"ansible_ec2_public_key": null,
"ansible_ec2
我正在尝试编写一个云形成模板,为负载平衡器设置一个安全组。我需要为SecurityGroup选择以下专有网络:
"Parameters" : {
"VpcId" : {
"Description" : "VPC associated with the provided subnets",
"Type" : "List<AWS::EC2::VPC::Id>"
},
},
当我启动堆栈时,它会出现以下故障:
CREATE_FAILED AWS::EC2::S
我收到以下错误:“时间戳2015-06-29T15%3A08%3A27Z必须是ISO8601格式”我已仔细检查,我相信它是IS08601格式的,然后进行URL编码
当我再次匹配该格式时,其中创建的格式似乎是相同的
有什么想法吗
矿山:2015-06-29T15%3A08%3A27Z
他们的:2015-06-29T15%3A12%3A47Z
谢谢
克莱尔不确定问题出在哪里,但我在另一个与亚马逊timespan问题相关的网站上发现了这一点。这确实解决了我的问题
public static strin
我有以下目录布局
./www/index.php
Dockerfile
apache-config.conf
然后我压缩文件并将其上载到Elastic Beanstalk,但收到以下错误消息:
[Instance: i-572d1ae8] Command failed on instance. Return code: 1 Output: Dockerfile and Dockerrun.aws.json are both missing, abort deployment. Hook /op
如何转换以下命令并使用s3cmd
aws s3 sync ./test s3://test --content-encoding "gzip" --content-type "text/html" --cache-control "max-age=0, no-cache" --exclude "*" --include "index.html" --profile stage
我想像上面那样设置内容编码、缓存控制、内容类型、包括和排除标记和配置文件。s3cmd有一个sync命令:。它不符合您的
我是AWS DynamoDb Titan Graph DB的新手。所以我按照这里的指示来做
我可以启动Gremlin服务器并加载图标。
然后我想用Rexster服务器加载graph。我启动Rexster服务器
bin/rexster.sh -s -c config/rexster-local.xml
在日志中我看到图表被加载了
...
[INFO] Backend - Initiated backend operations thread pool of size 8
[INFO] Abst
我正在尝试设置一个ec2实例,并收到一个连接超时
我已将pem文件下载到~/.ssh文件夹
我已经完成了chmod 400 file.pem
我正在努力:
ssh-v-i AWS.pemubuntu@ec2-54…1.compute-1.amazonaws.com
实例已启动并正在运行
不过,我不确定路线选择
在路由表中显示:
Destination: 172.....0/16
Target: local
Status: Active
Propagated : No
我无法尝试添加其他路
我有一个Drupal网站,已经配置了AWS Cloudfront
我的问题是,现在无法对CMS进行密码访问。该页面要求输入用户名/密码,然后我单击登录按钮,它会给我一条拒绝访问的消息
密码很好,所以我确信这是Cloudfront的问题。有人能帮我解释为什么会发生这种情况吗?发生的问题是身份验证头和cookie没有从云端分发转发到父服务器。白名单来源、主机、引用人、授权头和转发所有cookie将解决此问题。发生的问题是身份验证头和cookie没有从云端分发转发到父服务器。白名单来源、主机、推荐人、
考虑一个队列
队列中有j1…jn作业或消息
我知道当j完成时,在这种情况下我会删除它们
我也知道当j没有完成时,在这种情况下,我不会故意删除它们,这样它就会回到队列中
我想在队列中永远保留一项未完成的工作,但是,我知道j。我也知道DLQ,但不希望实现它,因为它不是一个错误,不需要查找和调试
我的问题是:
已读取且从未删除的作业在读取或重新查询后是否会被分配新的保留期?
删除邮件和发送具有相同指令或邮件正文的邮件是否有刷新的保留期?
Amazon SQS队列中消息的最大保留期为14天。这是从放入队
我在CloudWatch中有几个仪表板,它们表示我的基础结构的静态视图,例如,自动缩放工作组中有多少实例当前正在运行,或者各种关键EC2实例的CPU/磁盘状态。但是,当我添加新实例时,我总是无法手动更新仪表板以将其包含在显示中
我很好奇是否有任何方法可以通过编程方式填充这些仪表板,比如通过使用AWS Lambda函数的CLI/API调用?如果仪表板可以基于触发器进行更新,这将非常理想,就像Lambda函数根据各种事件/a计划知道何时执行一样。您可以通过cloudWatch仪表板API和Cloud
CodeDeploy克隆AutoScalingGroup后,它将LoadBalancer字段留空。这导致了以下问题:当实例Web服务器死亡时,ELB不理解实例已关闭,该实例不会自动替换。
但是,如果我手动设置LoadBalancer,它将在以后正常工作
我看了新的ASG是如何克隆的。实例启动时,可能会挂起某些进程。因此,据我所知,CodeDeploy会暂停所有与ELB相关的操作,因为它使用自己的自动脚本来取消旧实例的附加,并将新实例附加到ELB
我自己不使用任何自定义附加或取消附加脚本
否则部署
我已经创建了一个EC2实例,它连接了两个卷,/dev/xvda用于根卷,dev\sdb用于添加的另一个磁卷
现在,当我SSH到实例中并尝试lsblk时,我找不到带有dev/sdb的实例
由于lsblk只返回xvda和xvdb这两个块,我可以安全地假设dev/sdb指的是xvdb,但它们之间的关系到底是什么?很抱歉,我的linux/unix背景非常低,因此这个问题是AWS用来调用卷/dev/sdb的,但是现在它们会自动调用/dev/xvdb,即使您使用/dev/sdb名称附加它们
根据内核的块设备
我正在尝试完成以下场景:
1帐户A将文件上载到帐户B拥有的S3存储桶。在上载时,我指定帐户所有者B的完全控制权
s3_client.upload_file(
local_file,
bucket,
remote_file_name,
ExtraArgs={'GrantFullControl': 'id=<AccountB_CanonicalID>'}
)
问题:是否可以将文件从帐户A上载到帐户B,但仍然通过IP范围限制公共访问。这是不可能的。根
随后,,
我试图模仿他们的例子。在创建度量过滤器的过程中,可以首先使用示例日志对其进行测试。所以我选择了定制日志,
从上面给出的链接复制粘贴的示例:
{
"eventType": "UpdateTrail",
"sourceIPAddress": "111.111.111.111",
"arrayKey": [
"value",
"another value"
],
"objectList": [
{
"name
可以用boto3标记弹性IP地址吗?我知道你可以通过控制台标记它们,我已经用这种方式标记了很多,但是我似乎可以找到任何关于用boto3标记它们的文档
I这在boto3中是不可能的。我是否可以使用其他库来实现这一点?boto3库提供了一种通用方法,可用于将标记应用于多种不同类型的AWS资源,包括弹性IP。下面是一个如何使用它的示例:
import boto3
ec2 = boto3.client('ec2', region_name='us-east-1')
response = ec2.cr
我的最终目标是在AWS Fargate上部署docker容器。碰巧的是,我的dockerfile没有本地依赖项,我的上传连接非常慢,因此我想在云中构建它。在AWS上构建映像的最简单方法是什么?创建一个EC2 Linux实例,在其中安装docker和aws cli,构建映像,然后上载到aws ECR,如果可能的话?最简单的方法是使用-它可以为您做任何事情,甚至可以将其推送到aws ECR
基本说明:这不是CI/CD管道的一部分;但是一次性的task@tsorn即使对于一次性任务,这也是最简单的事情
我试图找到一种在Ansible中创建动态资源清册的方法,可以让我在重启后使用EC2实例的更新IP。我试图在文档中搜索,但没有太多关于它的信息
如果有任何帮助,我们将不胜感激。以下是如何在EC2上更新您的库存
谷歌云
在ec2.ini(ec2.py的清单脚本设置)中设置访问密钥详细信息后,我得到的错误为错误:禁止,而:获取ElastiCache群集
解决方案:我最初认为这是因为谷歌云,但在ec2.ini中启用elasticache=False选项解决了这个问题。不推荐使用ec2.py脚本,也没有对
我知道AWS DocumentDB不支持多区域复制,即使快照不能跨区域共享
请建议我们如何手动执行复制谢谢您的反馈,Sam。有两个选项是使用+Lambda/worker复制数据或使用mongodump将备份带到S3并利用。谢谢您的反馈,Sam。有几个选项是使用+Lambda/worker来复制数据,或者使用mongodump将备份带到S3并利用。Sam,
AWS于20年7月10日发布了跨地区快照副本,所以这应该可以满足您的需要。祝你好运
山姆,
AWS于20年7月10日发布了跨地区快照副本,所以
我正在使用AWS的textract处理文档,但它似乎没有检测到文本是否为粗体。是否有我遗漏的东西,或者这不是一个功能
粗体文本检测似乎不是Textract中的当前功能
Textract API在块对象中返回
块对象数据类型记录在中,没有任何与字体大小相关的属性,如粗体。粗体文本检测似乎不是Textract中的当前功能
Textract API在块对象中返回
块对象数据类型记录在中,没有任何与字体大小相关的属性,如粗体。任何执行类似操作的ML模型?@davids。Tesseract 3具有此功能。
我有一个关于AWS Amplify的React本地项目
在根目录中,有一个放大文件夹
在这个放大文件夹中,有一个后端文件夹和一个当前云后端文件夹
这两者基本相同
当我尝试使用npm run start启动我的项目时,我收到以下错误:
The following files share their name; please adjust your hasteImpl:
* <rootDir>/amplify-backup/backend/function/cxLoyalty
使用amplify CLI执行amplify push或amplify push函数命令时出错
以下是控制台审查的项目特定标识符中的错误
:
我已经试过了:
再次执行放大初始化
执行放大配置,创建新的IAM用户,并使用新创建的用户凭据。
回到amplify push上次工作的提交,仍然看到相同的错误。
重新调整回购并执行上述步骤。不走运。
我将感谢任何帮助。谢谢。在AWS控制台中,转到“表概述”下的DynamoDB表,然后是“流详细信息”,然后是“管理流”,单击“启用新图像和旧图像”。在AWS控
我有一个名为Wishlist的DynamoDB表和一个现有的DynamoDB项,我称之为“monitor”
我试图编写一个Lambda函数,更新“监视器”项,如下所示:
获取用户的登录ID,附加@gmail.com,并将其写入新的电子邮件属性
将时间戳写入项
这是我的密码:
console.log('Loading function');
var doc = require('dynamodb-doc');
var db = new doc.DynamoDB();
exports.hand
我正在使用AWS ebs、rds、s3、cloudwatch,但在cloudwatch上,它在近2分钟内连续发出ping警告:
2018-05-30 6:59:22 47603113539328[警告]无法解决IP地址“85.93.20.90”:名称解析暂时失败
如果有人知道这一点,请告诉我
谢谢到底是什么导致了这个错误?您的问题没有提供足够的细节。请编辑您的问题并添加详细信息,以解释您正在努力实现的目标、正在发生的事情以及您希望发生的事情。例如,“在cloudwatch上它正在持续ping”是
我是一个需要这些信息的新手,所以我可以使用Fargate成本计算器来查看从ECS迁移可以节省多少成本
Fargate成本计算器位于此处:
我有18个实例正在运行,5个c5.large,8个t2.micro,3个t2.medium,2个t3.medium。在点击成本管理器和主控制台页面后,我不知道在控制台的什么地方可以点击这些信息 如果您在EC2启动类型中使用task,我认为集群级别没有任何控制台UI/页面可用。通常,我们只是根据实例类型手动计算。下面是每个实例的示例
我猜你的问题是关于Farga
在称之为重复之前,请阅读我的问题
我发现了两种方法来检查S3中是否存在来自EMR的文件夹,但我想知道哪种方法是正确的。为了获取EMR(例如从Spark应用程序)机器的凭据以访问S3,我做了:newinstanceProfileCredentialsProvider().getCredentials
使用AmazonS3.doesObjectExist(s3Bucket,s3Prefix)
s3.doesObjectExist(“我的bucket”、“我的目录”)返回false,但为true
s
我想列出卷的快照,但在输出中我还想看到该卷的名称(我是指标记)。
到目前为止,我正在使用:
aws ec2 describe-snapshots
在回答中,我得到了如下信息:
Snapshots: [
{
"Description": "some description",
"Encrypted": false,
"OwnerId": "someownerid",
"Progress": "100%",
"
如何从主云观察日志页面过滤器直接转到日志7CF2C033BFEC48E8A74C404B08CDXX15F?这是一个过滤出日志组的程序
这是留言
Failed to create resource. See the details in CloudWatch Log Stream: 2019/08/22/[$LATEST]7cf2c033bfec48e8a74c40b08cdxx15f
现在我想使用散列来查找日志组和日志流您可以使用Logs Insights进行操作
在CloudWatch控制
据我所知,必须配置boto3模块(用于指定aws\u access\u key\u id和
aws\u secret\u access\u key),然后我才能使用它访问任何aws服务
从开始,有三种配置方式:
1.在创建客户端时创建并作为配置参数传递的配置对象
2.环境变量
3.~/.aws/config文件
但是,对于我读到的示例,如果直接在AWS lambda上编写,则无需进行配置。此外,没有环境变量,我也找不到配置文件。如何在AWS lambda上配置boto3
没有环境变量
是的,他们
1 2 3 4 5 6 ...
下一页 最后一页 共 691 页