Apache spark Spark无法运行大于64KB大小的SQL

Apache spark Spark无法运行大于64KB大小的SQL,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我在数据集上运行spark sql(sql大小约85KB)时遇到了一些问题。在spark 1.6.1版本中,SQL不能超过64KB 我确实看到这个问题在Spark 2.0中得到了解决 我的群集仍在1.6.1上。是否有可能在我的应用程序中通过覆盖1.6.1库作为临时解决方案来获得此更改?谢谢您的帮助。如果有任何信息,请回复。如果有任何信息,请回复。

我在数据集上运行spark sql(sql大小约85KB)时遇到了一些问题。在spark 1.6.1版本中,SQL不能超过64KB

我确实看到这个问题在Spark 2.0中得到了解决


我的群集仍在1.6.1上。是否有可能在我的应用程序中通过覆盖1.6.1库作为临时解决方案来获得此更改?谢谢您的帮助。

如果有任何信息,请回复。如果有任何信息,请回复。