通常,我会用一个SELECT语句和相关子查询生成这个表,但在Snowflake中不行?无论如何,我想更新表中的所有行,对于不匹配的行,使用一个特殊值(9999)。
在T-SQL中,我将执行以下操作
update x
set x.value = coalesce(n.value2, 9999)
from x
left join n
on x.id = n.id
在Snowflake中如何执行相同的操作?根据文档,您不使用JOIN关键字,而是在的WHERE中执行以下操作:
update t1
我有一个正则表达式,它有多个匹配组
如何在snowflake中指定要返回的匹配组
我使用的是REGEXP\u SUBSTR,但如果它们工作得更好,我很乐意使用替代方法。中有一个名为occurance的参数,它允许您指定要返回的匹配项的哪个匹配项
例如:
select regexp_substr('bird is the word','\\w+',1,1); -- returns "bird"
select regexp_substr('bird is the word','\\w+',1,4);
(代表雪花用户提交问题)
当使用CTE和交叉连接时,我得到了不正确的输出
但在创建瞬态表而不是CTE时,输出正确:
罪魁祸首是CTE级
WITH
vennDimension AS
(
SELECT ROW_NUMBER() OVER (ORDER BY 1) -1 AS TIMEPERIOD
FROM TABLE(GENERATOR(ROWCOUNT => 2+1))
),
nonVennDimension AS
(
SELECT ROW_NUMBER()
来自雪花文件。
克隆组中的每个表都有一个独立的生命周期,这些表中存储的所有权有时需要转移到克隆组中的不同表中。例如,考虑一个克隆组,该组由:
T1 >> T2 >> T3
T1有10M数据,(p0=5M+p1=5M)
T1和T2共享5M数据(分区1->p1)
T2有15M的数据,(p1+p2=5M+p3=5M)
T2和T3共享10M(p1+p2)数据
T3有1200万数据,(p1+p2+p4=2M)
T3和T2共共享1000万数据(p1+p2)
如果时间旅行窗口为零。
专家,,
我们如何配置Azure/Snowflake以使用Azure日志分析访问所有雪花日志,并使用kusto和alert创建警报
Rana这取决于您希望从Snowflake卸载到日志文件的数据,因为在account_用法和信息模式中有大量可用信息。但将这些数据写入Azure存储上的文件非常容易,以便在Azure日志分析中摄取和使用。下面是一个示例-将login_history视图中记录的错误推送到JSON文件:
copy into @~/json_error_log.json from
我使用以下查询从我的雪花数据库中检索查询历史记录
SELECT "QUERY_TEXT", "DATABASE_NAME", "SCHEMA_NAME", "QUERY_TYPE", "USER_NAME", "ROLE_NAME", "EXECUTION_STATUS", "ERROR_CODE", "START_TIME", "END_TIME", "TOTAL_ELAPSED_TIME", "BYTES_SCANNED", "ROWS_PRODUCED"
FROM table(M
我正在将SQL代码迁移到snowflake,在迁移过程中,我发现默认情况下snowflake不正确地比较varchar字段(例如,选择1,其中“Hello”=“Hello”)。为了解决这个问题,我在帐户级别设置了排序规则“en ci”。但是现在我无法使用替换之类的关键功能
在snowflake中,是否可以进行不区分大小写的varchar比较(不明确提及排序规则或每次都不使用UPPER函数),而仍然使用replace函数
我将感谢任何帮助
谢谢,regexp\u replace是您的朋友,它允许使
这将产生:
+------+------+------+-----------+
|O|u F | ID | NAME | ZIPCODE|
|-----+--------+----------+---------|
|1 | sa|u id1 | sa|u name1 |空|
|1 | sa|u id2 | sa|u name2 |空|
|2 | sr|U id1 | sr|U名称1 |空|
|2 | sr|u id2 | sr|u name2 | NULL|
|3 | zr|u id1 |
表结构是
+------------+---------+
| Animals | Herbs |
+------------+---------+
| [Cat, Dog] | [Basil] |
| [Dog, Lion]| [] |
+------------+---------+
所需输出(不关心此列表的排序):
第一次尝试是这样的
SELECT ARRAY_CAT(ARRAY_AGG(DISTINCT(animals)), ARRAY_AGG(herbs))
但
我有4条小溪。
A_流,B_流,C_流,D_流
我有一个任务链,其中一个任务是父任务,它有三个子任务(B任务、C任务、D任务)
假设一个_任务被触发并完成,但当它执行C_任务流时,C_流并没有数据,所以任务并没有被触发。
5分钟后,C_流获得数据
这里的问题是数据永远不会从C_流加载到目标表,因为下次不会触发_任务。我们该如何应对这种情况
我无法分离这些任务,因为它们在同一个目标表上运行
在雪花任务中,我们是否有类似于子任务将等待依赖性满足的情况?在您的示例中,听起来A和C并不是真正相互依赖的。
雪花数据库存储包括(可能还有其他一些)
桌子
时间旅行
故障保险
克隆
文件暂存
我正试图找到一种方法,使用表存储度量来计算表+时间旅行+故障保护(带克隆和不带克隆)not
目前正在查看ACCOUNT_USAGE.database_storage_USAGE_history,但我不确定平均_database_字节中包含哪些内容
如何找到当前数据库的正确值
编辑:
我不是账户管理员
是否希望使用查询而不是UI
编辑2:选择*的结果来自信息\u模式。表\u存储\u度量;
没有导入的查看雪花数
我希望卸载雪花中的数据,是否可以将关系结构化数据卸载为类似JSON的半结构化格式
谢谢,是的。这里有记录:
我的问题:
如何将副本构造为语句,以便正确解析和加载文件?谢谢
问题是:
我有一个csv文件,需要从Snowflake中的命名阶段解析并复制到表中
该文件类似于以下内容:
ID, Name, Job Title,Company Name, Email Address, Phone Number
5244, Ted Jones, Manager, Quality Comms, tj@email.com,555-630-1277
5246, Talim Jones,""P-Bo
帐户使用模式中的存储使用视图是否反映了公司内所有仓库/项目的数据?
是否有一种方法可以像在warehouse\u METERING\u HISTORY视图中有warehouse name字段一样,仅为团队或项目筛选数据
如果此视图中的数据(存储使用)是特定于项目的,那么如何加载此视图?这可能回答了您的问题:
存储使用包含帐户中所有数据库、所有架构、所有阶段和所有表的数据
数据被历史化1年
延迟时间约为2小时
该视图显示了每种类型(存储、故障保护、阶段)的平均每日数据存储使用情况
文件:
此外,以
什么是snowflake数据库和数据仓库-我们可以在snowflake中执行任何ETL操作和报告操作吗
我们可以使用雪花订阅进行ELT或ETL吗
我们可以用雪花订阅做任何报道吗
我们可以在Snowflake中进行任何实时处理吗?请阅读,然后带着任何具体问题返回:
如何在类似雪花的sql server中使用具有提交、回滚和尝试捕获块的事务
SQL Server:
BEGIN TRY
BEGIN TRANSACTION
--Insert statement 1
--Insert statement 2
COMMIT
END TRY
BEGIN CATCH
IF @@TRANCOUNT > 0
ROLLBACK
END CATCH
根据snowflake文档,我们可以使用这样的
(代表客户提交)
我试图通过ODBC驱动程序(32位)从SSAS模型(SSDT 32位)连接雪花数据库,但在处理数据时出错
错误:指定的DSN包含驱动程序和应用程序SSDT之间的体系结构不匹配
下面是链接
按照上面的链接遵循所有步骤,我们能够创建从SQL DB到snowflake的链接服务器,并且如果我们在SQL DB中启动(SELECT*from OPENQUERY([******},'SELECT*from“***.””******),我们能够获取数据,这很好,但是当我们试图处理来自SSA
如何执行rm@mystage/data/input/pattern='.*成功。*'来自存储的进程
我收到一条错误消息“存储过程执行错误:不支持的语句类型‘未知’”以下过程适合我
CREATE OR REPLACE PROCEDURE RM_FROM_STAGE() RETURNS STRING LANGUAGE JAVASCRIPT AS
$$ snowflake.execute({sqlText: `rm @mystage/test/ pattern='.*success.*'` }); $
我希望利用snowflake中的各种功能。我对snowflake是新手,从文档中看不到它是否支持我想做的事情。我想对一个表执行查询,在这个表中,我对具有标准类型(varchar,int…)和从变量列提取的值的列进行聚合(分组)。“我的变量”列将存储一组如下所示的对象:
{ "container": [
{
"param1": "value1a",
"param2": "value2a",
"param3": "value3a"
},
{
"param1
代码:
如果有匹配的记录,则应从表1中删除这些记录。
当我执行上述代码时,我得到了错误,如意外选择和意外自错误我认为您正在尝试执行以下操作:
Delete from Table1
Where(A,B,C)
IN
(Select A,B,C From Table2);
我想你是想做这样的事情:
Delete from Table1
Where(A,B,C)
IN
(Select A,B,C From Table2);
我创建了两个简单的表table1和table2,其中包含a、b、c列,然后我
我尝试使用以下命令使用jdbc将数据从s3加载到snowflake:
copy into <target_table> from <s3_bucket> credentials=(aws_key_id='' aws_secret_key='') file_format = (format_name = 'my_csv') FORCE = TRUE ON_ERROR = SKIP_FILE;
copy-into-from-credentials=(aws\u-key\u-
我试图将雪花数据库中所有当前和未来任务的监视权限授予特定角色
没有提供任何例子
我尝试将数据库MY_DB上所有任务的监视器授予角色角色_OVER
这样可能吗?您必须一个模式一个模式地进行吗?一项任务一项任务地完成一项任务?试试这个(中的而不是上的):
GRANT MONITOR ON ALL TASKS IN DATABASE MY_DB TO ROLE ROLE_OVER
;
我想自动将数据从源摄取到雪花云数据库中。无法仅从源中提取唯一的行。因此,在每次摄取过程中都会提取整个数据。但是,在添加到SnowFlake时,我只想添加唯一的行。如何以最佳方式实现这一点
进一步信息:源是一个DataStax Cassandra图。假设有一个键可以用来确定需要加载哪些记录,理想的方案是将数据加载到Snowflake中的一个stage表,然后使用新数据运行一个MERGE语句并应用到目标表
如果没有密钥,您可能需要考虑运行插入覆写语句,并用新的传入数据替换表。
假设有一个键可以用来
我的雪花表中有十进制值,需要显示指数值
0.9525816643-->9.523E-1
0.9714426928-->9.714E-1
759023.356783-->7.59023E5
我可以在snowflake中使用哪个函数将十进制值转换为指数值?要以这种方式显示数字,您需要使用适当的格式字符串将数字转换为text/char,例如to_char(1234,“9D999EE”)
这里有更详细的描述要以这种方式显示数字,您需要使用适当的格式字符串将数字转换为text/char,例如To_char
我正在构造snowflake存储过程,在snowflake过程中使用传递的参数时遇到了困难
create or replace procedure dumper(n float)
returns float
language javascript
execute as caller
as
$$
var text = "select file_name from table(information_schema.COPY_HISTORY(TABLE_NAME
最近,在过去几天中,我们在运行
CREATE OR REPLACE TABLE <tbl name> CLONE <db>.<schema>.tmp_<tbl name> COPY GRANTS
创建或替换表克隆..tmp_uuu复制授权
询问。这是突然发生的,文档或知识库中没有任何关于此特定错误的指示
这里的错误是什么?它指的是什么?我们如何避免它
谢谢 要克隆的表似乎被标记为已删除。取消删除表可能会有所帮助:您似乎遇到了一个暂时性问题,影响
我在比较数据时遇到了一个问题。
我想排除上一时期存在的数据,但我遗漏了一些东西。
我只想检索在前一阶段不存在的新ref。(此查询是更大查询的一部分,这就是为什么您将在我的测试查询中选择赢/输)
我不明白的另一件事是,为什么我在生产数据中出现了这个错误
SQL编译错误:无法计算不支持的子查询类型
通缉结果:
时期
国家
裁判
名称
标签
01/01/2020
美国
WZ32
WKDM2
123
01/01/2020
美国
PZ56
2GFSDG37
456
01/02/2020
美国
OD59
O
我正在尝试使用copy命令将数据导入Snowflake。
我的文件格式定义如下:
CREATE FILE FORMAT mydb.schema1.myFileFormat
TYPE = CSV
COMPRESSION = 'AUTO'
FIELD_DELIMITER = ','
RECORD_DELIMITER = '\n'
SKIP_HEADER = 0
FIELD_OPTIONALLY_ENCLOSED_BY = '\042'
TRIM_SPACE = FALSE
ERROR_O
我在尝试通过Jitterbit cloud studio连接到Snowflake时收到以下错误:
错误
错误代码:snowflake07
堆栈跟踪:
Error executing get activity. ,Stack Trace: org.jitterbit.connector.sdk.exceptions.ActivityExecutionException: Error executing get activity.
at org.jitterbit.connector.snowfla
免责声明:新的SQL和雪花。。。所以在你参与反消费者滥用之前
假设我有两个select语句:
select foo,bar from baz as b;
select foo,bar,gee,whiz from qaz as q;
假设第二条select语句具有联接:
select foo, bar, gee, whiz from qaz as q
left join data as d on (d.gee = q.gee)
where d.whiz = q.whiz
and q.foo
我很难以正确的格式获取InformationSchema过程表的参数\u签名,以便在drop语句中使用
完整示例如下:
创建一个类似于
create or replace procedure proc1(P1 FLOAT, P2 FLOAT) returns string
language javascript as $$ $$;
从信息架构/过程中选择:
SELECT PROCEDURE_NAME, ARGUMENT_SIGNATURE FROM TEST_DB.INFORMATIO
是否可以在不限定数据库名称的情况下运行SQL脚本?
目前,我们正在使用如下程序
选择I.XXXX\u LOC\u SKEY,
C.COUNTRY_SKEY
从…起
DEV_XXXX_DB.STAGING.XX_表_位置_销售F,
开发人员XXXX演示文稿DB.DIMS.XXXX位置I,
开发人员XXXX演示文稿DB.DIMS.COUNTRY\U D C,
开发人员XXXX演示文稿DB.DIMS.XXXX每日日历
哪里
F.仓库\ U代码=I.门
和I.CHANNEL='XXXX'
F.COUNT
在《雪花》中,我知道我可以扮演以下角色:
show roles
我知道我可以显示特定角色的授权,并通过查询访问这些授权:
show grants to role dev_role;
select * from table(RESULT_SCAN (LAST_QUERY_ID()));
我想在一个表中显示所有角色的所有补助金。我的最佳猜测是编写一个过程,迭代所有角色名称,执行上述代码,并将结果输出到表中
有更好的方法吗?不幸的是,目前没有更好的方法来积累补助金信息。我当前的解决方案正是您所描述
如果我有一个全新的Snowflake帐户并运行以下操作:
show grants to role sysadmin;
show grants to role accountadmin;
每个人都将获得哪些授权?有关系统角色的雪花文档提供了一些关于系统内置角色所建议特权的高级建议:
AccountAdmin的一些详细信息:
这意味着对于SECURITYADMIN角色:
安全管理员(SECURITYADMIN)角色包括创建和管理用户和角色的权限
对于系统管理员角色:
系统管理员(SYSADMI
我正在尝试克隆一个架构及其上的授权,但当我尝试克隆它时,它也不会复制架构上的用户或角色,我如何才能做到这一点
例如:
使用角色ACCOUNTADMIN
(accountadmin是Test_db.schema的所有者)
我没有看到相同的补助金,因此我必须在以下内容之后添加:
GRANT USAGE ON SCHEMA Test_DB.SCHEMA TO ROLE my_objectrole
我可以从克隆的对象克隆并复制授予权限吗?克隆的对象在源对象本身上不保留任何授予的权限
目前还不可能,但这
我必须将“to_char(trunc(new_time(sysdate('GMT','PST'))-1,'Mon-YY')”Oracle查询转换为snowflake。有人能帮我吗。convert_timezone是snowflake中转换时间戳时区的函数
select convert_timezone('America/New_York', 'UTC', current_timestamp::timestamp) ;
有关更多信息,您可以参考雪花文档如果您解释代码的作用并提供具有所需结果的示例
在帮助->雪花WebUI下载中下载snowSQL CLI的CLI客户端(snowSQL)选项在哪里?附加屏幕截图
nod我的实例中似乎也“缺少”了它。这里也一样。雪花团队正在制定解决方案。同时,可以从这个链接下载SnowSQL客户机:这条消息不是告诉您从Maven存储库下载驱动程序吗?如果你遵循这个链接,它将带您访问所有可用版本的JDBC驱动程序和相关文件。您可以参考以下有关Snowsql安装的文档链接:我同意,而且我知道我们甚至可以从AWS/Azure端点下载,但是从“帮助”->“下载”比从m
我有一个混合大小写的数据库,即testDATABASE。
我运行(使用ODBC)查询use database“testDATABASE”,然后运行查询use schema“PUBLIC”,
查询失败,错误为:
错误:SQL编译错误:
对象不存在,或无法执行操作。
错误代码:2043
Query=使用架构“PUBLIC”
当我不是通过odbc而是在笔记本中运行它时,它工作正常。
对于不包含混合大小写的数据库,相同的查询可以正常工作
如果我运行模式“testDATABASE”,“PUBLIC”,它可
正在从S3位置将拼花文件加载到雪花表。这就是我正在做的:
已创建目标表
使用以下命令创建阶段表
从阶段表加载目标表
这很好,我的问题是,我有10个表和10个列。有没有办法优化第3步,我不必显式地提到列名,这样代码就会变得通用:
COPY INTO myschema.target_table FROM(
SELECT *
FROM myschema.stage_table)
你试过了吗
按列名称匹配=区分大小写|不区分大小写|无
文档:您是否能够使用胶水在AWS上将拼花地板转换为CSV
我是一个新手雪花和文件不清楚
假设我使用一个最多有5个并发查询的大型仓库
有5个用户发出繁重的查询,这可能需要很多分钟才能完成
第六个用户有一个简单的查询要执行
运行这5个查询的进程是否在任何时间点都会产生结果,或者运行到完成
第6个用户是否必须等待达到超时限制,然后尝试使用其他虚拟仓库
谢谢 与大多数(所有?)其他数据库一样,该队列是先进先出队列。如果一个查询排队是因为其他查询正在消耗集群的所有资源,那么它必须等到其他查询完成(或超时)后才能运行。Snowflake不会暂停正在运行的查询以“潜
下面附加的ss是我的连接查询的示例数据,现在我想实现将此数据转换为id、上次更新、提供程序引用、构建引用作为我的列名,以及将Val列作为各自标题的数据。我用来做join的查询如下。非常感谢您的帮助。谢谢
加入:
选择lc.id、lc.name、lc.type、sl.val
从租约列列表lc内部连接SEP租约列列表sl
在lc.id=sl.COLUMNID上;
我找到了解决方案,下面的查询帮助我实现了这一点
select * from
(select lc.name, sl.va
查看Azure函数日志时,如果未收到响应,则外部函数会在约30秒后重试查询。在30秒内完成的查询将成功返回到snowflake
Azure功能是使用消费计划设置的,默认超时为5分钟
关于改变这种行为的任何计划、想法和意见,例如:
可配置
后退以允许额外的时间(也可以配置)
欣赏
记录-包括在同一地区发送较少、功能和雪花-检查
预览功能
改变可能已经开始了
性能和获取数据之间的平衡
向函数doco大声喊叫。伙计们,干得好
干杯,Azure功能允许配置为在5分钟后超时,而不是30秒。是否有可
是否可以将snowflake上暂存的csv文件的头放入数组中
我需要遍历所有字段以将数据插入到我们的data vault模型中,并且确实需要将这些列名放到数组中。是的,您可以查询暂存文件的以下元数据:
METADATA$FILENAME:当前行所属的暂存数据文件的名称。包括阶段中数据文件的路径
元数据$FILE\u ROW\u NUMBER:容器暂存数据文件中每个记录的行号
因此没有足够的信息。但是:有一个参数SKIP_HEADER,可以在COPY-INTO命令中使用。因此,我的建议是:
使
如何将一个变量设置为一个值数组,该数组将在in子句中使用
这项工作:
SELECT *
FROM TableA
WHERE Col1 IN ('Value1', 'Value2', 'Value3');
但是我不知道如何从手动指定的数组中创建一个要使用的变量。我想这样做:
SET values = ('Value1', 'Value2', 'Value3');
SELECT *
FROM TableA
WHERE Col1 IN $values;
报告的错误:
SQL编译错误:
我正在尝试访问雪花中的一个元素。输入如下所示
[{"address":"3285 RICHMOND AVE, STATEN ISLAND, NY, US, 10312-2112","duns":"081386564",
"industries":{"D&B Hoovers Industry Code":"1119 - Information Technolog
有人知道如何通过DBeaver连接Snowflake DB吗?
我已经安装了最新的JDBC驱动程序“snowflake-JDBC-3.9.2”
&正在尝试连接到Snowflake DB,但出现以下错误:
“JDBC驱动程序遇到通信错误。消息:HTTP请求遇到异常:连接重置
您可以使用Snowflake JDBC jar的3.10.3版本。这是一个在Db eaver上试用过的版本。您的连接详细信息对话框在DBeaver中的外观如何?为什么不试用最新的驱动程序版本?您应该能够按照Snowflake
我通过存储过程将数据插入雪花表。我在表中有一列,希望在运行insert语句时捕获查询id。对如何实现这一目标有何建议
干杯,很抱歉,但不太可能-最后一个查询id仅在发送执行查询时授予,因此您无法为“此”查询获取它。您可以尝试回顾性地执行此操作(因此先插入,然后更新),但我担心这样做不会太并行
但问题是-您到底想实现什么,也许有更简单的方法?我以前见过这种类型的请求,最好的使用案例是,用户通常希望在ETL过程中标记插入或更新记录的查询。必须对该信息进行第二次传递以更新查询id是过度处理和困难的。理
在工作表中运行此操作,我希望数据加载到我的表中:
SET AWS_ACCESS_KEY_ID='XXXX';
SET AWS_SECRET_ACCESS_KEY='XXXX';
COPY INTO my_table (name,dog_name) FROM s3://my-bucket/*.csv
credentials=(aws_key_id='$AWS_ACCESS_KEY_ID' aws_secret_key='$AWS_SECRET_ACCESS_KEY')
file_format=(
我们试图通过Okta SCIM集成将active directory组同步到snowflake,但出现以下错误,不知道是什么原因造成的
{"statusType":"BAD_REQUEST","entity":{"schemas":["urn:ietf:params:scim:api:messages:2.0:Error"],"detail":"Invalid gro
我想知道在Snowflake仓库中应用Tri-Secret托管密钥安全性的功能好处是什么
据我所知:
Tri-Secret方法允许您定义自己的密钥
撤销该密钥将使Snowflake无法解密您的数据
但加密级别在任何方面都更安全吗?
我看到的唯一区别是雪花键和您自己的键是组合在一起的。
禁止访问该密钥将使Snowflake无法解密,从而使您的数据变得无用。
然后呢?如何从中恢复
另见:
这是雪花自己写的。他们本质上说的是:
你有更多的控制权,但你必须给雪花提供钥匙,否则他们就不能工作了
如果您不信
1 2 3 4 5 6 ...
下一页 最后一页 共 17 页