Java 如何在spark中使用map而不实现Serializable?

Java 如何在spark中使用map而不实现Serializable?,java,apache-spark,apache-spark-sql,Java,Apache Spark,Apache Spark Sql,我在代码中使用了map(),它抛出了一个notserializableeexception,因此我实现了Serializable 是否有其他方法克服此异常,或者map是否始终使用可序列化的 Dataset<Row> outdf=indf.map(new MapFunction<Row,Row>() { @Override public Row call(Row row){ //Calling another function in a

我在代码中使用了
map()
,它抛出了一个
notserializableeexception
,因此我实现了
Serializable

是否有其他方法克服此异常,或者map是否始终使用可序列化的

Dataset<Row> outdf=indf.map(new MapFunction<Row,Row>() {

    @Override
    public Row call(Row row){
          //Calling another function in another class 
 
       return r;//r is also a row
     }
},encoder);
数据集outdf=indf.map(新的MapFunction(){ @凌驾 公用行呼叫(行){ //在另一个类中调用另一个函数 返回r;//r也是一行 } },编码器);
在调用函数中,如果您使用的是映射类中的某些内容(变量、对象),则该映射类需要实现可序列化


请参阅此。

是什么在您的解决方案中实现了
Serializable
?我使用此代码的类。我的类名是Mapping,因此它是class Mapping implements Serializable如果您向我们展示在何处使用此类,可能会给我们一些线索