星火;Scala:“;负片选择”;spark'中的列;s org.apache.spark.sql.row

星火;Scala:“;负片选择”;spark'中的列;s org.apache.spark.sql.row,scala,apache-spark,Scala,Apache Spark,类似于(使用drop())我对spark.sql.row也有同样的问题。我查过了,但是我自己没能弄清楚。如果有更干净的替代方案,我想避免像toSeq()这样的解决方法 除了索引给定的元素外,如何检索所有元素 import org.apache.spark.sql._ val row = Row(1, 1.2, 57.12, null) val colIndexToBeExluded = 1 // how do I get all (3) columns but colIndexToBeExlud

类似于(使用
drop()
)我对
spark.sql.row
也有同样的问题。我查过了,但是我自己没能弄清楚。如果有更干净的替代方案,我想避免像
toSeq()
这样的解决方法

除了索引给定的元素外,如何检索所有元素

import org.apache.spark.sql._
val row = Row(1, 1.2, 57.12, null)
val colIndexToBeExluded = 1
// how do I get all (3) columns but colIndexToBeExluded ?

谢谢

“获取……列”是什么意思?你想以什么结束?阵列?又吵架了?我同意阿尔切蒂·帕尔堡的说法。我不确定我是否理解您的问题。a
org.apache.spark.mllib.linalg.Vector
将是最佳输出,因为我想对其余列应用机器学习。我不确定我是否理解这将如何工作,因为向量包含双精度,而您的行没有任何(并且只有一个数值)相应地更改了问题-谢谢。我只想到了数字。你说的“获取……列”是什么意思?你想以什么结束?阵列?又吵架了?我同意阿尔切蒂·帕尔堡的说法。我不确定我是否理解您的问题。a
org.apache.spark.mllib.linalg.Vector
将是最佳输出,因为我想对其余列应用机器学习。我不确定我是否理解这将如何工作,因为向量包含双精度,而您的行没有任何(并且只有一个数值)相应地更改了问题-谢谢。我只想到了数字。