Scala和Spark中用于多类分类的自定义损失函数
我想问一下,是否可以使用Scala为Spark中的多类分类编写一个自定义损失函数。我想用Scala编写代码。我搜索了Spark文档,但没有得到任何提示。来自: 目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化 从: 目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化Scala和Spark中用于多类分类的自定义损失函数,scala,apache-spark,logistic-regression,loss-function,Scala,Apache Spark,Logistic Regression,Loss Function,我想问一下,是否可以使用Scala为Spark中的多类分类编写一个自定义损失函数。我想用Scala编写代码。我搜索了Spark文档,但没有得到任何提示。来自: 目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化 从: 目前,仅支持二进制分类。。当支持多类分类时,这可能会发生变化 如果您不局限于特定的分类技术,我建议您使用XGBoost。它有一个与Spark兼容的实现,并且可以使用任何损失函数,只要可以计算两次is导数 你可以找到一个教程 还可以找到关于为什么可以使用自定义损失函数的解释
如果您不局限于特定的分类技术,我建议您使用XGBoost。它有一个与Spark兼容的实现,并且可以使用任何损失函数,只要可以计算两次is导数 你可以找到一个教程
还可以找到关于为什么可以使用自定义损失函数的解释。如果您不局限于特定的分类技术,我建议使用XGBoost。它有一个与Spark兼容的实现,并且可以使用任何损失函数,只要可以计算两次is导数 你可以找到一个教程 还可以找到关于为什么可以使用自定义损耗函数的解释