Oracle11g 配置单元二进制和字符串数据类型

Oracle11g 配置单元二进制和字符串数据类型,oracle11g,hive,bigdata,Oracle11g,Hive,Bigdata,配置单元上的二进制和字符串数据类型是否有最大限制。其想法是能够存储大于4GB的数据。Oracle在CLOB数据类型列中最多支持8 TB的数据。我们是否有类似的存储容量 我用来在hdfs上存储数据的格式是拼花,用来存储它使用的bytearray数据类型以及注释的字符串/二进制数据。我如何知道拼花地板格式的bytearray数据类型的最大限制 在文档中,它声明字节数组可以是任意长度的。那么这是否意味着我可以存储多达8 TB或更多的数据。不,Hive不支持BLOB/CLOB数据类型。STRING数据类

配置单元上的二进制和字符串数据类型是否有最大限制。其想法是能够存储大于4GB的数据。Oracle在CLOB数据类型列中最多支持8 TB的数据。我们是否有类似的存储容量

我用来在hdfs上存储数据的格式是拼花,用来存储它使用的bytearray数据类型以及注释的字符串/二进制数据。我如何知道拼花地板格式的bytearray数据类型的最大限制


在文档中,它声明字节数组可以是任意长度的。那么这是否意味着我可以存储多达8 TB或更多的数据。

不,Hive不支持BLOB/CLOB数据类型。
STRING
数据类型支持高达2GB的数据,但这还不足以满足您的要求

然而,Hive主要是一个查询工具,用于使用SQL检索存储在底层HDFS文件系统中的数据,而HDFS绝对可以处理任意大的文件。(更多信息请点击此处:)

我猜您的目标是将存储在Oracle中的值传递给Hadoop。如果您的目标是在后续的配置单元查询中实际返回该值,我会感到惊讶——在这种情况下,您运气不好

如果您使用Sqoop从Oracle导入数据,这将很好,但有一些特殊的注意事项。看

或者,只要源系统安装了Hadoop命令行工具,就可以使用Hadoop文件系统命令(例如,
get
put
)将大型对象移动到Hadoop

在任何情况下,可能需要访问大型对象内容(例如,可能是图像)的任何逻辑都需要使用与Oracle不同的SQL/CLOB策略。可能在内容中引用HDFS文件名,并在需要显示时获取它

希望这是有帮助的,我已经回答了正确的问题