Apache spark sql 选择spark sql中除特定列以外的所有列
我想选择表中除StudentAddress之外的所有列,因此我编写了以下查询:Apache spark sql 选择spark sql中除特定列以外的所有列,apache-spark-sql,hiveql,pyspark-sql,spark-hive,Apache Spark Sql,Hiveql,Pyspark Sql,Spark Hive,我想选择表中除StudentAddress之外的所有列,因此我编写了以下查询: select `(StudentAddress)?+.+` from student; 它在SquirrelSQL客户机中给出了以下错误。 org.apache.spark.sql.AnalysisException:无法解析给定输入列的“(StudentAddress)?+。++”您可以使用DataFrame API中的方法删除特定列,然后选择所有列 例如: val df = hiveContext.read.t
select `(StudentAddress)?+.+` from student;
它在SquirrelSQL客户机中给出了以下错误。
org.apache.spark.sql.AnalysisException:无法解析给定输入列的“(StudentAddress)?+。++
”您可以使用DataFrame API中的方法删除特定列,然后选择所有列
例如:
val df = hiveContext.read.table("student")
val dfWithoutStudentAddress = df.drop("StudentAddress")
SparkAny解决方案似乎不支持这种语法?实际需要什么?我正在连接多个非常宽的表,因此在执行一个连接后,我需要删除一个连接列,以消除下一个连接的歧义。目前,我在select中指定了我想要的所有列名,但是像except columns这样的功能将非常灵活。谢谢。删除后不需要选择(“*”)。