Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala和Spark中用于多类分类的自定义损失函数_Scala_Apache Spark_Logistic Regression_Loss Function - Fatal编程技术网

Scala和Spark中用于多类分类的自定义损失函数

Scala和Spark中用于多类分类的自定义损失函数,scala,apache-spark,logistic-regression,loss-function,Scala,Apache Spark,Logistic Regression,Loss Function,我想问一下,是否可以使用Scala为Spark中的多类分类编写一个自定义损失函数。我想用Scala编写代码。我搜索了Spark文档,但没有得到任何提示。来自: 目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化 从: 目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化 如果您不局限于特定的分类技术,我建议您使用XGBoost。它有一个与Spark兼容的实现,并且可以使用任何损失函数,只要可以计算两次is导数 你可以找到一个教程 还可以找到关于为什么可以使用自定义损失函数的解释

我想问一下,是否可以使用Scala为Spark中的多类分类编写一个自定义损失函数。我想用Scala编写代码。我搜索了Spark文档,但没有得到任何提示。

来自:

目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化

从:

目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化


如果您不局限于特定的分类技术,我建议您使用XGBoost。它有一个与Spark兼容的实现,并且可以使用任何损失函数,只要可以计算两次is导数

你可以找到一个教程


还可以找到关于为什么可以使用自定义损失函数的解释。

如果您不局限于特定的分类技术,我建议使用XGBoost。它有一个与Spark兼容的实现,并且可以使用任何损失函数,只要可以计算两次is导数

你可以找到一个教程

还可以找到关于为什么可以使用自定义损耗函数的解释