启动“hive”时出错;命令在shell中


Error while launching "hive" command in shell

当我尝试从shell运行"hive"命令时,我得到以下错误:

java.io.IOException: Mkdirs failed tocreate/tmp/hadoop-USERNAME/hadoop-unjar1448268252380539144 atorg.apache.hadoop.util.RunJar.ensureDirectory (RunJar.java: 100)org.apache.hadoop.util.RunJar.main (RunJar.java: 162)"。

但是当我尝试在PHP脚本中选择查询时,我们收到以下错误:

'FAILED: Hive Internal Error:java.lang.RuntimeException (org.apache.hadoop.ipc.RemoteException:org.apache.hadoop.hdfs.server.namenode.SafeModeException:不能创建目录/tmp/hive-root/hive_2015-06-29_18-03-29_493_5508174623301334280。名字节点处于安全模式。NN的资源很低。安全模式必须为手动关闭。在org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirsInternal (FSNamesystem.java: 2140)在org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs (FSNamesystem.java: 2114)在org.apache.hadoop.hdfs.server.namenode.NameNode.mkdirs (NameNode.java: 892)在sun.reflect.GeneratedMethodAccessor2286。调用(未知源)atsun.reflect.DelegatingMethodAccessorImpl.invoke (DelegatingMethodAccessorImpl.java: 25)(Method.java:597org.apache.hadoop.ipc.RPC Server.call美元(RPC.java: 557)

这是由于集群自动进入安全模式。我们通过释放/添加一些磁盘空间来修复它。

"df -h"命令显示:

tmpfs 4,9G 0 4,9G 0/dev/shm

该分区是空闲的。意外的是,即使我没有删除任何数据,问题也消失了。在hive实例上还有另一个问题。当我尝试在某些字段上启动一个选择查询时,hive cli map reduce返回这个错误:

end Job = job_201409031055_6624 with errors作业出错,获取调试信息…检查任务ID: task_201409031055_6624_m_000002(及更多)从job job_201409031055_6624

失败次数最多的任务(4):

任务ID:task_201409031055_6624_m_000000

URL:

http://cosmosmaster-gi: 50030/taskdetails.jsp ? jobid = job_201409031055_6624& tipid = task_201409031055_6624_m_000000

FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exe . mapredtaskMapReduce启动的工作:Job 0: Map: 1 HDFS Read: 0 HDFS Write: 0 FAILMapReduce CPU Time Spent: 0 msec