Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何将CSV数据转换为标签点格式?_Python_Apache Spark_Pyspark - Fatal编程技术网

Python 如何将CSV数据转换为标签点格式?

Python 如何将CSV数据转换为标签点格式?,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,在这里提供的示例中,数据已经是LabelledPoint格式,但我有一个csv文件,其中有单独的标签列和要素列(它们都是文本) 没有直接的方法将CSV转换为标签点 这是我通常使用的代码: val csv = sc.textFile("PATH/TO/CSVFILE") val lPoint = csv.map { line => val values = line.split(",").map(_.toDouble) val features = Vectors.dense(va

在这里提供的示例中,数据已经是LabelledPoint格式,但我有一个csv文件,其中有单独的标签列和要素列(它们都是文本)

没有直接的方法将CSV转换为标签点

这是我通常使用的代码:

val csv = sc.textFile("PATH/TO/CSVFILE")

val lPoint = csv.map { line =>
  val values = line.split(",").map(_.toDouble)
  val features = Vectors.dense(values.init)
  //Assuming that the label is always in the last column.
  val label = values.last
  LabeledPoint(label, features)
}

这是在Scala中,而最初的问题是询问Python实现