将拼花地板解读成无火花的scala
我有一个拼花文件,我想在不使用Spark或其他大数据技术的情况下将其读入我的Scala程序 我找到了项目将拼花地板解读成无火花的scala,scala,parquet,Scala,Parquet,我有一个拼花文件,我想在不使用Spark或其他大数据技术的情况下将其读入我的Scala程序 我找到了项目 但没有足够详细的例子让它们发挥作用 拼花地板先生 提到这一点,但给出的示例并不完整。例如,不清楚路径应该是什么。它应该实现InputFile,这应该如何实现?另外,在我看来,从这篇文章来看,拼花MR并没有直接将拼花数据转换为标准的Scala类 鳗鱼 我试过了 导入io.eels.component.parquet.ParquetSource 导入org.apache.hadoop.c
InputFile
,这应该如何实现?另外,在我看来,从这篇文章来看,拼花MR并没有直接将拼花数据转换为标准的Scala类
鳗鱼
我试过了
导入io.eels.component.parquet.ParquetSource
导入org.apache.hadoop.conf.Configuration
导入org.apache.hadoop.fs.{文件系统,路径}
val parquetFilePath = new Path("file://home/raeg/Datatroniq/Projekte/14. Witzenmann/Teilprojekt Strom und Spannung/python_witzenmann/src/data/1.parquet")
implicit val hadoopConfiguration = new Configuration()
implicit val hadoopFileSystem = FileSystem.get(hadoopConfiguration) // This is required
ParquetSource(parquetFilePath)
.toDataStream()
.collect
.foreach(row => println(row))
但是我得到了错误
java.io.IOException: No FileSystem for scheme: file
at org.apache.hadoop.fs.FileSystem.getFileSystemClass(ParquetReaderTesting.sc:2582)
at org.apache.hadoop.fs.FileSystem.createFileSystem(ParquetReaderTesting.sc:2589)
at org.apache.hadoop.fs.FileSystem.access$200(ParquetReaderTesting.sc:87)
at org.apache.hadoop.fs.FileSystem$Cache.getInternal(ParquetReaderTesting.sc:2628)
at org.apache.hadoop.fs.FileSystem$Cache.get(ParquetReaderTesting.sc:2610)
at org.apache.hadoop.fs.FileSystem.get(ParquetReaderTesting.sc:366)
at org.apache.hadoop.fs.FileSystem.get(ParquetReaderTesting.sc:165)
at dataReading.A$A6$A$A6.hadoopFileSystem$lzycompute(ParquetReaderTesting.sc:7)
at dataReading.A$A6$A$A6.hadoopFileSystem(ParquetReaderTesting.sc:7)
at dataReading.A$A6$A$A6.get$$instance$$hadoopFileSystem(ParquetReaderTesting.sc:7)
at #worksheet#.#worksheet#(ParquetReaderTesting.sc:30)
在我的工作表中