Apache spark 由于行大小大于32MB,spark作业失败

Apache spark 由于行大小大于32MB,spark作业失败,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我正在使用Java spark和hbase,在那里我使用newAPIHadoopRDD获取数据。但我在从hbase获取数据时遇到以下错误。我坚信这是由于我的一行大小大于32MB。是否有任何方法可以配置行大小限制,或者是否有任何方法可以跳过该特定行数据。(从hbase中删除该数据对我来说不是选项) 错误: 对不起,我没有努力显示,因为我不知道这个错误。 提前谢谢 Job aborted due to stage failure: Task 0 in stage 3.0 failed 4 times

我正在使用Java spark和hbase,在那里我使用newAPIHadoopRDD获取数据。但我在从hbase获取数据时遇到以下错误。我坚信这是由于我的一行大小大于32MB。是否有任何方法可以配置行大小限制,或者是否有任何方法可以跳过该特定行数据。(从hbase中删除该数据对我来说不是选项)

错误:

对不起,我没有努力显示,因为我不知道这个错误。 提前谢谢

Job aborted due to stage failure: Task 0 in stage 3.0 failed 4 times, most recent failure: Lost task 0.3 in stage 3.0 (TID 213, host_name, executor 2): com.mapr.fs.ErrnoException: scanNext() on 'hbase_table_name' failed with error: File too large (27).