通过DI Studio将Teradata中的大型表读入SAS进行进一步处理

通过DI Studio将Teradata中的大型表读入SAS进行进一步处理,sas,teradata,sas-dis,Sas,Teradata,Sas Dis,我正在SAS DI Studio中创建一个ETL作业,将Teradata表读入SAS,然后在其上应用用户编写的代码,然后使用Teradata表加载器再次将SAS工作表加载到Teradata中 将大型teradata表(50Cr或更多记录)读入SAS工作空间的最佳方式是什么?我目前正在使用以下基本SAS代码创建工作表: data work.out_table; set db.in_table; <sas-statements>; run; 数据工作表; 在表格中设置db.in;

我正在SAS DI Studio中创建一个ETL作业,将Teradata表读入SAS,然后在其上应用用户编写的代码,然后使用Teradata表加载器再次将SAS工作表加载到Teradata中

将大型teradata表(50Cr或更多记录)读入SAS工作空间的最佳方式是什么?我目前正在使用以下基本SAS代码创建工作表:

data work.out_table;
 set db.in_table;
  <sas-statements>;
run;
数据工作表;
在表格中设置db.in;
;
跑

尝试在Teradata的库参考中添加FASTEXPORT=YES选项,或在Append或TableLoader转换的table option选项卡中为输入表添加dataset选项


我假设您使用的是Teradata 13>更大版本。如果您使用的是旧版本,则使用DBSLICEPARM=ALL参数而不是FASTEXPORT=YES。由于FASTEXPORT使用TPT API,并且该API从Teradata 13开始引入。

;如果你使用更常见的美国术语(1000=000,1000000=1000000,等等),你可能会得到更好的回答。如果你在这里提供更多的信息,你也会得到更好的回答。您缺少的一件大事是
db.in_table
是否包含
work.out_table
不需要的行或列。要更正,我想从包含5亿条或更多记录的teradata表中提取整个数据。谢谢。啊,对了,克朗是1000万,不是10万。我应该知道,但我错了。。。如果没有其他人这样做,我将稍后回答,但我没有DI Studio经验,所以我宁愿等待像Dom这样的人,他们可能会有更合适的特定解决方案。根据您的情况,您的解决方案可能是一个好的解决方案。您好,Harshad,您使用的是哪种陈述?你考虑过数据库处理吗?