hadoop2.6.0+HBase1.0.1.1安装+Hive安装+异常总结 下载本文

[hdp@hadoop1 sbin]$ netstat -an | grep 9000

tcp 0 0 127.0.0.1:9000 0.0.0.0:* LISTEN

tcp 0 0 127.0.0.1:37072 127.0.0.1:9000 TIME_WAIT

其实问题就再这里,hadoop启动的时候只监听了127.0.0.1一个端口,而不是192.168.100.187:9000。这种情况下,也就只有本机才能联通127.0.0.1:9000了。

看来是ip解析的问题,看一下namenode的hosts文件(只列出了重要部分): 127.0.0.1 hadoop1localhost.localdomainlocalhost ::1 localhost6.localdomain6 localhost6 其实主要问题就是只要将hadoop1去掉即可。 重启hdfs后检查一下端口监听情况:

[root@hadoop1 network-scripts]# netstat -an | grep 9000

tcp 0 0 192.168.10.22:9000 0.0.0.0:* LISTEN

tcp 0 0 192.168.10.22:9000 192.168.10.24:51040 ESTABLISHED

tcp 0 0 192.168.10.22:41116 192.168.10.22:9000 TIME_WAIT

tcp 0 0 192.168.10.22:9000 192.168.10.23:46070 ESTABLISHED

修改后datanode就可以正常连接namenode了。

启动失败报错4:WARN util.NativeCodeLoader: Unable to load native-hadoop library for your

platform...

using builtin-java classes where applicable

启动失败解决4:不用管它

关闭Hadoop集群也是在Master节点上执行: 1. sbin/stop-all.sh 执行分布式实例

执行分布式实例过程与伪分布式模式一样。首先创建所需的几个目录 1. bin/hdfs dfs -mkdir -p /user/hadoop 将etc/hadoop中的文件作为输入文件复制到分布式文件系统中。 1. bin/hdfs dfs -put etc/hadoop input 通过查看DataNode的状态(占用大小有改变),输入文件确实复制到了DataNode中。 通过Web页面查看DataNode的状态

接着就可以运行MapReduce作业了。

1. bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar grep input output 'dfs[a-z.]+' 运行时的信息如下所示,显示Job的进度。可能会比较慢,但如果迟迟没有进度,比如10分钟都没看到进度,那不妨重启Hadoop再试试。 显示MapReduce Job的进度

同样可以通过Web界面查看任务进度 http://master:8088/cluster

通过Web页面集群状态和MapReduce作业的信息

在 Web 界面点击 “Tracking UI” 这一列的 History,可能会提示网页无法打开,遇到这种情况需要手动开启 jobhistory server,开启之后刷新页面再点击就可以打开了。