计算结果的sparksql插入技术
或者我正在使用下面的代码-计算结果的sparksql插入技术,sql,apache-spark,apache-spark-sql,Sql,Apache Spark,Apache Spark Sql,或者我正在使用下面的代码- spark.sql("INSERT INTO countDirectorySize VALUES (`" +str(root) + "`)") 完整的代码在这里,以便更好地理解- root = "/dbfs/mnt/datalake/.../" spark.sql("INSERT INTO countDirectorySize VALUES (`" +str(root) + "`)") 此代码在插入时出错。任何帮助都会很好 错误: "cannot reso
spark.sql("INSERT INTO countDirectorySize VALUES (`" +str(root) + "`)")
完整的代码在这里,以便更好地理解-
root = "/dbfs/mnt/datalake/.../"
spark.sql("INSERT INTO countDirectorySize VALUES (`" +str(root) + "`)")
此代码在插入时出错。任何帮助都会很好
错误:
"cannot resolve '`/dbfs/mnt/datalake/.../`' given input columns: [];
line 1 pos 30;\n'InsertIntoTable 'UnresolvedRelation `countSize`, false, false\n+- 'UnresolvedInlineTable [col1], [List('/dbfs/mnt/datalake/.../)]\n"
这起作用了-
安排。我只想知道('''.'.'.'.'.'.'.'.'.'.
)
spark.sql("INSERT INTO countDirectorySize VALUES ('"+str(root)+"')")
为什么不发布错误?@Nick.McDermaid让我编辑。@Nick.McDermaid EditedI不知道spark sql,但在普通sql中,您应该列出要插入的列:
插入countDirectorySize(ColumnName)值(..
@Nick.McDermaid这不起作用。我检查了