Scala 如何在ApacheSpark数据集中为enum列编写case类?

Scala 如何在ApacheSpark数据集中为enum列编写case类?,scala,apache-spark,case-class,apache-spark-dataset,Scala,Apache Spark,Case Class,Apache Spark Dataset,我想将数据转换为数据集。我有一个列名storyType(小、中、大、xlarge)。因此,在这种情况下,我不知道如何编写案例类 story1, 10, small story2, 20, medium sotry3, 3, small story4, 50, xlarge 试一试 列的类型是什么?列的所有内容都是字符串,但我想将此列转换为枚举类型。 case class Story(name:String, point: Int, storyType: ???) sealed trait S

我想将数据转换为数据集。我有一个列名storyType(小、中、大、xlarge)。因此,在这种情况下,我不知道如何编写案例类

story1, 10, small
story2, 20, medium
sotry3, 3, small
story4, 50, xlarge
试一试


列的类型是什么?列的所有内容都是字符串,但我想将此列转换为枚举类型。
case class Story(name:String, point: Int, storyType: ???)
sealed trait StoryType
case object small extends StoryType
case object medium extends StoryType
case object large extends StoryType
case object xlarge extends StoryType