通过Teradata SQL assistant将大型CSV插入空表时出错

通过Teradata SQL assistant将大型CSV插入空表时出错,teradata,Teradata,我有一个6 gig的csv,我正在尝试将其加载到Teradata中 因此,我启动了Teradata SQL assistant,创建了一个空表,然后打开导入数据模式,并尝试使用 insert into some_lib.some_table (?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?); 但我总是会收到一条关于

我有一个6 gig的csv,我正在尝试将其加载到Teradata中

因此,我启动了Teradata SQL assistant,创建了一个空表,然后打开导入数据模式,并尝试使用

insert into some_lib.some_table
(?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?);
但我总是会收到一条关于6000K行标记的失败消息

读取记录614770处的导入文件时出错:类型异常 已引发“System.OutOfMemoryException”


我认为这是因为Teradata SQL assistant试图在将数据发送到Teradata服务器之前将所有内容加载到我4G笔记本电脑的内存中。我的理论正确吗?我如何告诉Teradata将数据分块上传,而不是将所有内容都存储在本地内存中?

我相信您正在推广SQL Assistant的功能,将其作为加载数据的一种手段

您是否考虑过在系统上安装Teradata加载实用程序,如FastLoad或MultiLoad

如果您不想为加载实用程序编写脚本,另一个选项是安装Teradata Studio Express,它应该提供一种使用JDBC FastLoad加载数据的机制。这将出现在Studio Express的智能加载机制中。您可能会发现,与使用.Net或ODBC的SQL Assistant相比,它的可扩展性更强