在java(不是scala,不是python)中使用spark(SparkSQL)读写固定长度的平面文件
我必须实现一个用例,在这个用例中,我必须使用java中的Spark SQL(DataFrame)读取固定长度的平面文件,然后写入另一个固定长度的文件。我的边界是我只能使用java。有人能给我推荐一种在Java spark中实现此功能的好方法吗你的意思是这样的吗?不完全是。我有一个固定长度的文件,其中的列是根据一些位排列的。像列1将占用2位一样,列2将占用10位,依此类推。我有40多个这样的专栏,这不是拼花文件。它可以是任何固定长度的文件是的,但您可以逐行读取,然后根据需要拆分。请分享一些示例(代码段)。在java(不是scala,不是python)中使用spark(SparkSQL)读写固定长度的平面文件,java,apache-spark-sql,azure-databricks,flat-file,Java,Apache Spark Sql,Azure Databricks,Flat File,我必须实现一个用例,在这个用例中,我必须使用java中的Spark SQL(DataFrame)读取固定长度的平面文件,然后写入另一个固定长度的文件。我的边界是我只能使用java。有人能给我推荐一种在Java spark中实现此功能的好方法吗你的意思是这样的吗?不完全是。我有一个固定长度的文件,其中的列是根据一些位排列的。像列1将占用2位一样,列2将占用10位,依此类推。我有40多个这样的专栏,这不是拼花文件。它可以是任何固定长度的文件是的,但您可以逐行读取,然后根据需要拆分。请分享一些示例(代