Scala 如何实现通用编码器?

Scala 如何实现通用编码器?,scala,apache-spark,apache-spark-sql,encoder,Scala,Apache Spark,Apache Spark Sql,Encoder,我想实现一个通用编码器,因为我在Spark 1.6上有一个小项目,当我将它迁移到Spark 2.0时,它会给我警告和错误 的 在许多地方,因此我想实现一个通用编码器并将其放入包对象中。我只是想知道如何在spark 2.0中实现通用编码器 开发自定义编码器通常从从从对象组合现有编码器开始 请注意,Spark中的许多地方都会检查正在使用的编码器是否是(即)的实例,因此您可能希望查看表达式编码器作为定制开发的基础。开发定制编码器通常从从从对象组合现有编码器开始 请注意,Spark中的许多地方都会检查正

我想实现一个通用编码器,因为我在Spark 1.6上有一个小项目,当我将它迁移到Spark 2.0时,它会给我警告和错误 的


在许多地方,因此我想实现一个通用编码器并将其放入包对象中。我只是想知道如何在spark 2.0中实现通用编码器

开发自定义编码器通常从从从对象组合现有编码器开始


请注意,Spark中的许多地方都会检查正在使用的编码器是否是(即)的实例,因此您可能希望查看表达式编码器作为定制开发的基础。

开发定制编码器通常从从从对象组合现有编码器开始

请注意,Spark中的许多地方都会检查正在使用的编码器是否是(即)的实例,因此您可能希望查看表达式编码器作为定制开发的基础。

这只是一个特性这只是一个特性
Unable to find encoder for type stored in a Dataset.  Primitive types (Int, String, etc) and Product types (case classes) are supported by importing spark.implicits._  Support for serializing other types will be added in future releases.