Python ';管道DRDD';对象没有属性'_jdf&x27;

Python ';管道DRDD';对象没有属性'_jdf&x27;,python,apache-spark,apache-spark-mllib,Python,Apache Spark,Apache Spark Mllib,这是我关于StakCflow的第一篇文章,因为我没有找到任何线索来解决这个消息“PipelinedRDD”对象没有属性“\u jdf”,当我调用train数据集上的trainer.fit在Python中的Spark下创建神经网络模型时会出现这个消息 这是我的密码 从pyspark导入SparkContext 从pyspark.ml.classification导入MultilayerPerceptronClassificationModel、MultilayerPerceptronClassi

这是我关于StakCflow的第一篇文章,因为我没有找到任何线索来解决这个消息“PipelinedRDD”对象没有属性“\u jdf”,当我调用train数据集上的trainer.fit在Python中的Spark下创建神经网络模型时会出现这个消息

这是我的密码

从pyspark导入SparkContext
从pyspark.ml.classification导入MultilayerPerceptronClassificationModel、MultilayerPerceptronClassificationModel
从pyspark.mllib.feature导入StandardScaler
从pyspark.mllib.regression导入标签点
从pyspark.sql导入SQLContext
从pyspark.ml.evaluation导入MultiClassificationEvaluator
###在Spark中导入数据###
RDD_RAWfileWH=sc.textFile(“c:/Anaconda2/Cognet/Data_表示Cognet\u ready.csv”)
header=RDD_RAWfileWH.first()
#从原始数据中删除标题
RDD_RAWfile1=RDD_RAWfileWH.filter(lambda x:x!=头)
#拆分RDD的每一行
RDD_RAWfile=RDD_RAWfile1.map(lambda行:[float(x)表示行中的x.split(',')]))
FinalData=RDD_RAWfile.map(lambda行:LabeledPoint(行[0],[行[1:]))
(trainingData,testData)=FinalData.randomSplit([0.7,0.3])
层=[15,2,3]
#创建培训师并设置其参数
trainer=多层PerceptronClassifier(maxIter=100,layers=layers,blockSize=128,seed=1234)
#训练模型
型号=培训师.配合(培训数据)

您试图将
ml
算法与RDD结合使用。在这里您将看到一个
DataFrame
。您好,谢谢您的回答,但是,我不太明白,因为我的培训数据是RDD。
{“pyspark.mllib”:“pyspark.RDD.RDD”,“pyspark.ml”:“pyspark.sql.DataFrame”}
好的,非常感谢,我现在明白了,MultilayerPerceptronClassifier可用于pyspark.ml,它只能用于数据帧,而pyspark.mllib可用于RDD,而MultilayerPerceptronClassifier在mllib下不可用(而且永远不会),现在我必须更改在Spark中加载数据的方式,并将其作为数据帧加载