Python 某些字段的SparkSQL选择错误
我使用的是spark 1.3.1,在python中,我有如下内容:Python 某些字段的SparkSQL选择错误,python,apache-spark,apache-spark-sql,Python,Apache Spark,Apache Spark Sql,我使用的是spark 1.3.1,在python中,我有如下内容: t1=sqlCtx.createDataFrame(sizes, ["id", "sum"]) t1.registerTempTable("t1") t1.take(1) <-- will show [Row(id=u'5b9a9171fde001c3d9b', sum=5)] 有什么想法吗?在大多数SQL方言中,SUM是一个保留关键字,在聚合语句中用作函数(例如,类似于从foo>3的条形图中选择SUM(foo))
t1=sqlCtx.createDataFrame(sizes, ["id", "sum"])
t1.registerTempTable("t1")
t1.take(1) <-- will show [Row(id=u'5b9a9171fde001c3d9b', sum=5)]
有什么想法吗?在大多数SQL方言中,
SUM
是一个保留关键字,在聚合语句中用作函数(例如,类似于从foo>3
的条形图中选择SUM(foo))。这意味着,SUM
单独是一个无效的表达式,因为SQL解析器需要一个列作为应该聚合的参数
要指示您引用的是名为sum
的列,而不是sum
函数,请尝试用反勾号转义列名:
sqlCtx.sql("select `sum` from t1")
啊!!!我真的很想踢我自己,我浪费了大约2个小时试图解决这个问题。谢谢,现在可以用了。很乐意帮忙。如果答案回答了你的问题,请随意接受。
sqlCtx.sql("select `sum` from t1")