星火;Scala:“;负片选择”;spark'中的列;s org.apache.spark.sql.row
类似于(使用星火;Scala:“;负片选择”;spark'中的列;s org.apache.spark.sql.row,scala,apache-spark,Scala,Apache Spark,类似于(使用drop())我对spark.sql.row也有同样的问题。我查过了,但是我自己没能弄清楚。如果有更干净的替代方案,我想避免像toSeq()这样的解决方法 除了索引给定的元素外,如何检索所有元素 import org.apache.spark.sql._ val row = Row(1, 1.2, 57.12, null) val colIndexToBeExluded = 1 // how do I get all (3) columns but colIndexToBeExlud
drop()
)我对spark.sql.row
也有同样的问题。我查过了,但是我自己没能弄清楚。如果有更干净的替代方案,我想避免像toSeq()
这样的解决方法
除了索引给定的元素外,如何检索所有元素
import org.apache.spark.sql._
val row = Row(1, 1.2, 57.12, null)
val colIndexToBeExluded = 1
// how do I get all (3) columns but colIndexToBeExluded ?
谢谢 “获取……列”是什么意思?你想以什么结束?阵列?又吵架了?我同意阿尔切蒂·帕尔堡的说法。我不确定我是否理解您的问题。a
org.apache.spark.mllib.linalg.Vector
将是最佳输出,因为我想对其余列应用机器学习。我不确定我是否理解这将如何工作,因为向量包含双精度,而您的行没有任何(并且只有一个数值)相应地更改了问题-谢谢。我只想到了数字。你说的“获取……列”是什么意思?你想以什么结束?阵列?又吵架了?我同意阿尔切蒂·帕尔堡的说法。我不确定我是否理解您的问题。aorg.apache.spark.mllib.linalg.Vector
将是最佳输出,因为我想对其余列应用机器学习。我不确定我是否理解这将如何工作,因为向量包含双精度,而您的行没有任何(并且只有一个数值)相应地更改了问题-谢谢。我只想到了数字。