Java 从PySpark运行trainLDA时面临py4j错误

Java 从PySpark运行trainLDA时面临py4j错误,java,python,pyspark,apache-spark-sql,lda,Java,Python,Pyspark,Apache Spark Sql,Lda,我正在构建一个基于LDA的集群模块。使用pyspark.mllib.clustering中的LDA,只要不提供docConcentration和topicConcentration这两个参数,我就可以很好地进行主题建模。一旦我将它们包括在默认值中(即,将它们设置为=-1),我就会得到以下错误: Py4JError: An error occurred while calling o419.trainLDAModel. Trace: py4j.Py4JException: Method t

我正在构建一个基于LDA的集群模块。使用pyspark.mllib.clustering中的LDA,只要不提供
docConcentration
topicConcentration
这两个参数,我就可以很好地进行主题建模。一旦我将它们包括在默认值中(即,将它们设置为
=-1
),我就会得到以下错误:

    Py4JError: An error occurred while calling o419.trainLDAModel. Trace:
py4j.Py4JException: Method trainLDAModel([class org.apache.spark.api.java.JavaRDD, class java.lang.Integer, class java.lang.Integer, class java.lang.Double, class java.lang.Integer, class java.lang.Integer, class java.lang.Integer, class java.lang.String]) does not exist
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:318)
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:326)
    at py4j.Gateway.invoke(Gateway.java:274)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:238)
    at java.lang.Thread.run(Thread.java:748)

我的
pyspark
版本是“3.1.1”,我的
openjdk
版本是“1.8.0_292”,经过测试
py4j。java_网关
正在接受连接。

我认为,如果您提供一段最小的代码,可以用来重现您的问题,那么有人会更容易帮助解决您的问题