Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/neo4j/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 猪HBASE失败;存储CSV_Hadoop_Hbase_Apache Pig - Fatal编程技术网

Hadoop 猪HBASE失败;存储CSV

Hadoop 猪HBASE失败;存储CSV,hadoop,hbase,apache-pig,Hadoop,Hbase,Apache Pig,我从环境Hadoop、HBase、Pig开始; 我会在Hbase表上存储一个数据库; 以下是我的请求: hbase-> 创造 创建我的数据库 我在HDFS文件上重新启动了CVS文件 hadoop dfs copyFromLocal~/data.csv/user/hduser/location.csv 我执行了我的请求 raw_data=LOAD'/user/hduser/data.csv',使用PigStorage(“;”)作为( 世界气象组织:国际, 成熟度:charArray, 温度:int

我从环境Hadoop、HBase、Pig开始; 我会在Hbase表上存储一个数据库; 以下是我的请求:

hbase-> 创造 创建我的数据库

我在HDFS文件上重新启动了CVS文件 hadoop dfs copyFromLocal~/data.csv/user/hduser/location.csv

我执行了我的请求

raw_data=LOAD'/user/hduser/data.csv',使用PigStorage(“;”)作为( 世界气象组织:国际, 成熟度:charArray, 温度:int, 临时出席:int, 通风方向:int, 强制通风:int, 压力:int)

使用存储到原始数据“hbase://TrafficFlowGrenoble” org.apache.pig.backend.hadoop.hbase.hbastorage( WMO:int成熟度:特征温度:int温度:int温度:int温度:int压力:int’

以下是我的错误: 2013-07-22 22:30:31870[main]错误org.apache.pig.tools.pigstats.PigStatsUtil-1映射缩减作业失败! 2013-07-22 22:30:31872[main]INFO org.apache.pig.tools.pigstats.SimplePostStats-脚本统计:

HadoopVersion PigVersion用户ID在FinishedAt功能启动 1.1.2 0.11.1 hduser 2013-07-22 22:28:45 2013-07-22:30:31未知

失败了

失败的作业: JobId别名​​功能信息输出 作业\u 20130722219\u 0001仅原始\u数据映射\u消息:作业失败!错误-作业清理任务失败,任务:任务\u 20130722219\u 0001\u m\u000001 hbase://TrafficFlowGrenoble

输入: 无法从“/user/hduser/data.csv”读取数据

输出: 未能在“hbase://TrafficFlowGrenoble”中生成结果

计数器: 写入的记录总数:0 写入的总字节数:0 可溢出内存管理器溢出计数:0 主动溢出的行李总数:0 主动溢出的总记录数:0

版本: hadoop-1.1.2 pig-0.11.1

导出HBASE_HOME=/usr/lib/HBASE #export PIG_CLASSPATH=“
${HBASE_HOME}/bin/HBASE CLASSPATH
:$PIG_CLASSPATH” export HADOOP_CLASSPATH=“
${HBASE_HOME}/bin/HBASE CLASSPATH
:$HADOOP_CLASSPATH” #export PIG_CLASSPATH=“$PIG_CLASSPATH:/usr/local/hbase/hbase-0.94.8.jar” export PIG_CLASSPATH=“/usr/local/hbase/conf/hbase site.xml:/usr/local/hbase/hbase-0.94.8.jar:/usr/local/hbase/lib/zookeer-3.4.5.jar:/usr/local/hbase/lib/$
#export PIG_CLASSPATH=/home/nadir/Documents/PIG-0.11.1.jar

如果上面的代码与您的输入文件完全相同,那么您的输入文件是“/user/hduser/location.csv”“不是data.csv,所以Pig找不到它

我写错了,我想写dfs copyFromLocal~/data.csv/user/hduser/data.csv,它总是给出相同的错误。export HADOOP_CLASSPATH=/usr/local/hbase/hbase-0.94.8.jar:/usr/local/hbase/lib/zookeeper-3.4.5.jar:/usr/local/hbase/lib/guava-11.0.2.jar:/usr/local/hbase/lib/$now它成功了!!您应该查找堆栈跟踪。您可以从jobtracker http接口找到它。它在运行时给你一个链接,比如:请用堆栈跟踪更新问题。