Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/java/389.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在java(不是scala,不是python)中使用spark(SparkSQL)读写固定长度的平面文件_Java_Apache Spark Sql_Azure Databricks_Flat File - Fatal编程技术网

在java(不是scala,不是python)中使用spark(SparkSQL)读写固定长度的平面文件

在java(不是scala,不是python)中使用spark(SparkSQL)读写固定长度的平面文件,java,apache-spark-sql,azure-databricks,flat-file,Java,Apache Spark Sql,Azure Databricks,Flat File,我必须实现一个用例,在这个用例中,我必须使用java中的Spark SQL(DataFrame)读取固定长度的平面文件,然后写入另一个固定长度的文件。我的边界是我只能使用java。有人能给我推荐一种在Java spark中实现此功能的好方法吗你的意思是这样的吗?不完全是。我有一个固定长度的文件,其中的列是根据一些位排列的。像列1将占用2位一样,列2将占用10位,依此类推。我有40多个这样的专栏,这不是拼花文件。它可以是任何固定长度的文件是的,但您可以逐行读取,然后根据需要拆分。请分享一些示例(代

我必须实现一个用例,在这个用例中,我必须使用java中的Spark SQL(DataFrame)读取固定长度的平面文件,然后写入另一个固定长度的文件。我的边界是我只能使用java。有人能给我推荐一种在Java spark中实现此功能的好方法吗

你的意思是这样的吗?不完全是。我有一个固定长度的文件,其中的列是根据一些位排列的。像列1将占用2位一样,列2将占用10位,依此类推。我有40多个这样的专栏,这不是拼花文件。它可以是任何固定长度的文件是的,但您可以逐行读取,然后根据需要拆分。请分享一些示例(代码段)。