Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/spring-boot/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark sql 选择spark sql中除特定列以外的所有列_Apache Spark Sql_Hiveql_Pyspark Sql_Spark Hive - Fatal编程技术网

Apache spark sql 选择spark sql中除特定列以外的所有列

Apache spark sql 选择spark sql中除特定列以外的所有列,apache-spark-sql,hiveql,pyspark-sql,spark-hive,Apache Spark Sql,Hiveql,Pyspark Sql,Spark Hive,我想选择表中除StudentAddress之外的所有列,因此我编写了以下查询: select `(StudentAddress)?+.+` from student; 它在SquirrelSQL客户机中给出了以下错误。 org.apache.spark.sql.AnalysisException:无法解析给定输入列的“(StudentAddress)?+。++”您可以使用DataFrame API中的方法删除特定列,然后选择所有列 例如: val df = hiveContext.read.t

我想选择表中除StudentAddress之外的所有列,因此我编写了以下查询:

select `(StudentAddress)?+.+` from student;
它在SquirrelSQL客户机中给出了以下错误。 org.apache.spark.sql.AnalysisException:无法解析给定输入列的“
(StudentAddress)?+。++

您可以使用DataFrame API中的方法删除特定列,然后选择所有列

例如:

val df = hiveContext.read.table("student")
val dfWithoutStudentAddress = df.drop("StudentAddress")

SparkAny解决方案似乎不支持这种语法?实际需要什么?我正在连接多个非常宽的表,因此在执行一个连接后,我需要删除一个连接列,以消除下一个连接的歧义。目前,我在select中指定了我想要的所有列名,但是像except columns这样的功能将非常灵活。谢谢。删除后不需要选择(“*”)。