之前一直在说Hadoop,也用了一些基于Hadoop的产品,但是对于Hadoop本身,或者说纯净的Hadoop一直没有折腾。所以利用了几天课余时间搭建了4台机器的Hadoop集群
##准备
首先部署了4台redhat x64机器,机器名分别为 M1,S1,S2,S3...
>M1:NameNode,SecondNameNode,ResourceManager
S1:DataNode,NodeManager
S2:DataNode,NodeManager
S3:DataNode,NodeManager
以上分配可能有些问题,日后再改咯
##卸载OpenJDK
由于RH本身自带OpenJDK,但是和SunJDK还是有些细微差别,为了保证万无一失,这里卸载自带的OpenJDK
##安装Sun JDK
首先从Oracle下载最新的jdk安装包rpm
,我写此文章的时候已经是java8了
##创建hadoop用户和组,构建hadoop文件结构
当然,如果大家在自己的帐号下,或者root
帐号下创建也是完全可以,不过不够专业,而且会有安全风险,这里不多赘述
##添加环境变量
切换回hadoop
用户
>编辑/home/hadoop/.bashrc
##RSA免密码配置
这一步是必须的,也是最繁琐的:(
>在用户hadoop
的工作目录下/home/hadoop/
执行ssh-keygen
,一路回车
如果没什么异常,会生成此文件/home/hadoop/.ssh/id_rsa.pub
S1,S2,S3分别执行以上操作,可以通过下面代码进行验证
##修改hadoop配置文件
>hadoop#/opt/cloudhost/hadoop/etc/hadoop/core-site.xml
hadoop#/opt/cloudhost/hadoop/etc/hadoop/hdfs-site.xml
hadoop#/opt/cloudhost/hadoop/etc/hadoop/yarn-site.xml
hadoop#/opt/cloudhost/hadoop/etc/hadoop/mapred-site.xml
hadoop#/opt/cloudhost/hadoop/etc/hadoop/slaves
##配置网络
当然你可以选择配置iptables,因为我不是这方面的专家,直接把防火墙关闭了
##分发配置文件
分发配置文件
##格式化NameNode
在M1上执行
##启动HDFS集群
>验证:http://M1:50070/
##启动Yarn集群
启动Yarn集群
ResourceManager验证:http://m1:8088/
NodeManager验证:http://s1:8042/ S2,S3
均可验证
##启动JobHistory服务
>当然,你可以不启动这个服务
JobHistory Server验证:http://M1:19888
##查看进程
查看进程
##集群验证
>使用hadoop自带的wordcount进行验证
####以上为所有步骤,转载请注明出处huangchaosuper.github.io/blog