Java 如何在spark中使用map而不实现Serializable?
我在代码中使用了Java 如何在spark中使用map而不实现Serializable?,java,apache-spark,apache-spark-sql,Java,Apache Spark,Apache Spark Sql,我在代码中使用了map(),它抛出了一个notserializableeexception,因此我实现了Serializable 是否有其他方法克服此异常,或者map是否始终使用可序列化的 Dataset<Row> outdf=indf.map(new MapFunction<Row,Row>() { @Override public Row call(Row row){ //Calling another function in a
map()
,它抛出了一个notserializableeexception
,因此我实现了Serializable
是否有其他方法克服此异常,或者map是否始终使用可序列化的
Dataset<Row> outdf=indf.map(new MapFunction<Row,Row>() {
@Override
public Row call(Row row){
//Calling another function in another class
return r;//r is also a row
}
},encoder);
数据集outdf=indf.map(新的MapFunction(){
@凌驾
公用行呼叫(行){
//在另一个类中调用另一个函数
返回r;//r也是一行
}
},编码器);
在调用函数中,如果您使用的是映射类中的某些内容(变量、对象),则该映射类需要实现可序列化
请参阅此。是什么在您的解决方案中实现了
Serializable
?我使用此代码的类。我的类名是Mapping,因此它是class Mapping implements Serializable如果您向我们展示在何处使用此类,可能会给我们一些线索