Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 某些字段的SparkSQL选择错误_Python_Apache Spark_Apache Spark Sql - Fatal编程技术网

Python 某些字段的SparkSQL选择错误

Python 某些字段的SparkSQL选择错误,python,apache-spark,apache-spark-sql,Python,Apache Spark,Apache Spark Sql,我使用的是spark 1.3.1,在python中,我有如下内容: t1=sqlCtx.createDataFrame(sizes, ["id", "sum"]) t1.registerTempTable("t1") t1.take(1) <-- will show [Row(id=u'5b9a9171fde001c3d9b', sum=5)] 有什么想法吗?在大多数SQL方言中,SUM是一个保留关键字,在聚合语句中用作函数(例如,类似于从foo>3的条形图中选择SUM(foo))

我使用的是spark 1.3.1,在python中,我有如下内容:

t1=sqlCtx.createDataFrame(sizes, ["id", "sum"]) 

t1.registerTempTable("t1")

t1.take(1) <-- will show [Row(id=u'5b9a9171fde001c3d9b', sum=5)]

有什么想法吗?

在大多数SQL方言中,
SUM
是一个保留关键字,在聚合语句中用作函数(例如,类似于
从foo>3
的条形图中选择SUM(foo))。这意味着,
SUM
单独是一个无效的表达式,因为SQL解析器需要一个列作为应该聚合的参数

要指示您引用的是名为
sum
的列,而不是
sum
函数,请尝试用反勾号转义列名:

sqlCtx.sql("select `sum` from t1")

啊!!!我真的很想踢我自己,我浪费了大约2个小时试图解决这个问题。谢谢,现在可以用了。很乐意帮忙。如果答案回答了你的问题,请随意接受。
sqlCtx.sql("select `sum` from t1")