Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用Spark/Hadoop从S3读取时出错_Hadoop_Amazon S3_Apache Spark_Jets3t - Fatal编程技术网

使用Spark/Hadoop从S3读取时出错

使用Spark/Hadoop从S3读取时出错,hadoop,amazon-s3,apache-spark,jets3t,Hadoop,Amazon S3,Apache Spark,Jets3t,我正在尝试使用从AmazonS3读取数据。 但是我越来越 java.lang.NoClassDefFoundError: org/jets3t/service/S3ServiceException 从Hadoop调用内部。 我已经尝试下载jets3t并将所有包含的JAR添加到我的类路径中, 但这没有帮助。 以下是正在发生的事情的完整记录: scala> val zz = sc.textFile("s3n:/<bucket>/<path>") 13/08/30 19

我正在尝试使用从AmazonS3读取数据。 但是我越来越

java.lang.NoClassDefFoundError: org/jets3t/service/S3ServiceException
从Hadoop调用内部。 我已经尝试下载jets3t并将所有包含的JAR添加到我的类路径中, 但这没有帮助。 以下是正在发生的事情的完整记录:

scala> val zz = sc.textFile("s3n:/<bucket>/<path>")
13/08/30 19:50:21 INFO storage.MemoryStore: ensureFreeSpace(45979) called with curMem=46019, maxMem=8579469803
13/08/30 19:50:21 INFO storage.MemoryStore: Block broadcast_1 stored as values to memory (estimated size 44.9 KB, free 8.0 GB)
zz: spark.RDD[String] = MappedRDD[3] at textFile at <console>:12

scala> zz.first
13/08/30 19:50:38 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
13/08/30 19:50:38 WARN snappy.LoadSnappy: Snappy native library not loaded
java.lang.NoClassDefFoundError: org/jets3t/service/S3ServiceException
at org.apache.hadoop.fs.s3native.NativeS3FileSystem.createDefaultStore(NativeS3FileSystem.java:224)
at org.apache.hadoop.fs.s3native.NativeS3FileSystem.initialize(NativeS3FileSystem.java:214)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1386)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1404)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
at org.apache.hadoop.fs.Path.getFileSystem(Path.java:187)
at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:176)
at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:208)
at spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:76)
at spark.RDD.partitions(RDD.scala:214)
at spark.rdd.MappedRDD.getPartitions(MappedRDD.scala:26)
at spark.RDD.partitions(RDD.scala:214)
at spark.RDD.take(RDD.scala:764)
at spark.RDD.first(RDD.scala:778)
scala>val zz=sc.textFile(“s3n://”)
13/08/30 19:50:21 INFO storage.MemoryStore:EnsureRefreeSpace(45979)调用时curMem=46019,maxMem=8579469803
13/08/30 19:50:21 INFO storage.MemoryStore:块广播_1作为值存储到内存(估计大小44.9 KB,可用8.0 GB)
zz:spark.RDD[String]=MappedRDD[3]位于文本文件的位置:12
scala>zz.first
13/08/30 19:50:38警告util.NativeCodeLoader:无法为您的平台加载本机hadoop库。。。在适用的情况下使用内置java类
13/08/30 19:50:38警告snappy.LoadSnappy:snappy本机库未加载
java.lang.NoClassDefFoundError:org/jets3t/service/S3ServiceException
位于org.apache.hadoop.fs.s3native.NativeS3FileSystem.createDefaultStore(NativeS3FileSystem.java:224)
位于org.apache.hadoop.fs.s3native.NativeS3FileSystem.initialize(NativeS3FileSystem.java:214)
位于org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1386)
位于org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
位于org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1404)
位于org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
位于org.apache.hadoop.fs.Path.getFileSystem(Path.java:187)
位于org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:176)
位于org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:208)
位于spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:76)
在spark.RDD.partitions上(RDD.scala:214)
在spark.rdd.MappedRDD.getPartitions(MappedRDD.scala:26)
在spark.RDD.partitions上(RDD.scala:214)
在spark.RDD.take(RDD.scala:764)
在spark.RDD.first(RDD.scala:778)

运行Hadoop作业时,必须设置Hadoop类路径环境变量。通常,这是在Hadoop启动脚本中完成的

export HADOOP_CLASSPATH=/path/to/yourlib:/path/to/your/other/lib

将:替换为a;如果您在windows上。

我的回答对您有帮助吗?