Batch file 使用批脚本将CSV文件数据加载到雪花云表

Batch file 使用批脚本将CSV文件数据加载到雪花云表,batch-file,snowflake-cloud-data-platform,Batch File,Snowflake Cloud Data Platform,我不熟悉批处理脚本,我的要求是将CSV文件复制到snowfalke表中 我试过使用 复制到命令 由雪花文件提供 但不幸的是它不起作用,请帮我做这些 这是我手试过的 for /f "tokens=2 delims==" %%a in ('wmic OS Get localdatetime /value') do set "dt=%%a" set "YY=%dt:~2,2%" & set "YYYY=%dt:~0,4%" & set "MM=%dt:~4,2%" & set

我不熟悉批处理脚本,我的要求是将CSV文件复制到snowfalke表中

我试过使用

复制到命令

由雪花文件提供

但不幸的是它不起作用,请帮我做这些

这是我手试过的

for /f "tokens=2 delims==" %%a in ('wmic OS Get localdatetime /value') do set "dt=%%a"
set "YY=%dt:~2,2%" & set "YYYY=%dt:~0,4%" & set "MM=%dt:~4,2%" & set "DD=%dt:~6,2%"

set fullstamp=select * from Tbl_Store where OperationDate='%YYYY%-%MM%-%DD%'
set filename=Tbl_Store_%YYYY%_%MM%_%DD%

sqlcmd -S ta -d SMS_Online  -U sa -P ***-h -1 -s, -W -Q "%fullstamp%" -s "," -o "E:\Workspace\%filename%.csv" 
set File_Name=%filename%.csv
: path to Output the 
set File_PATH=E:\Workspace\

: Set Bucket Path
set AWSBUCKET=s3://S3_TEST

: Set AWS path
set AWSPROFILE= S3_TEST

: upload the ZIP FILE to the AWS
:aws s3 cp %File_PATH%%File_Name% %AWSBUCKET% 

:Copy into SnowFlake
copy into table_name from %File_PATH%%File_Name%   

我通过使用snowsql.exe找到了解决方案,我们需要对其进行配置

通过批处理,我将ddl语句生成到一个文本文件中,然后使用下面的命令执行SQL语句以在Snowflake上执行数据加载

copy into tablename  from @my_s3_stage/%file_path and name on_error = 'skip_file' force=true;
snowsql -c Schema_Name -f file_path 
@我的舞台需要在snowfalke IDE上创建


不幸的是,我今天没有带水晶球,因此我无法看到“不工作”代码。ans已更新&我想它肯定会带上你的水晶球。你的所有代码都由CMD.exe执行。
COPY
命令是一个Windows可执行文件,而
INTO
不是
COPY
命令的选项。我很困惑,您似乎将批处理脚本与雪花SQL语法混为一谈。我不知道这应该如何工作。我需要使用批脚本将CSV数据上传到雪花云的过程自动化