Python 我的问题是为什么Bigint在数据帧中转换为长数据类型

Python 我的问题是为什么Bigint在数据帧中转换为长数据类型,python,apache-spark,pyspark,azure-databricks,Python,Apache Spark,Pyspark,Azure Databricks,我试图在数据帧中读取增量表,并希望验证其模式/数据类型。 所有这些都发生在Databricks笔记本中 案例1: 输出: Col1|datatypes aaaa|Bigint bbbb|string cccc|integer Col1|datatypes aaaa|long bbbb|string cccc|integer 案例2: df_delta_table1 = spark.table("delta_table1") 输出: Col1|datatypes aaa

我试图在数据帧中读取增量表,并希望验证其模式/数据类型。 所有这些都发生在Databricks笔记本中 案例1:

输出:

Col1|datatypes
aaaa|Bigint
bbbb|string
cccc|integer
Col1|datatypes
aaaa|long
bbbb|string
cccc|integer

案例2:

df_delta_table1 = spark.table("delta_table1")
输出:

Col1|datatypes
aaaa|Bigint
bbbb|string
cccc|integer
Col1|datatypes
aaaa|long
bbbb|string
cccc|integer
我的问题是为什么Bigint会在数据帧中转换为长数据类型