使用spark scala读取具有不同COL的csv

使用spark scala读取具有不同COL的csv,csv,varying,Csv,Varying,考虑一个包含以下数据的示例文件: 123,Test,data <br> 345,row2,data2,test2 <br> 554,row3,data3 <br> 788,row4,data4,with,all,columnvalues <br> 655,row5,data5,with2,column2 123,测试,数据 345,行2,数据2,测试2 554,第3行,数据3 788,行4,数据4,带,全部,列值 655,行5,数据5,带2,列2

考虑一个包含以下数据的示例文件:

123,Test,data <br>
345,row2,data2,test2 <br>
554,row3,data3 <br>
788,row4,data4,with,all,columnvalues <br>
655,row5,data5,with2,column2
123,测试,数据
345,行2,数据2,测试2
554,第3行,数据3
788,行4,数据4,带,全部,列值
655,行5,数据5,带2,列2
请注意,行的列数不相等
我尝试过使用DataRicks spark csv,将Infreschema选项设置为“true”,但它会根据第一行推断模式,因此其他行中的额外列会被删除

有没有办法读取这些数据