实战:基于 docker 的 HA-hadoop 集群搭建

1,204 阅读2分钟
原文链接: m.zjurl.cn

Hadoop的master和slave分别运行在不同的Docker容器中,其中hadoop-master容器中运行NameNode和ResourceManager,hadoop-slave容器中运行DataNode和NodeManager。NameNode和DataNode是Hadoop分布式文件系统HDFS的组件,负责储存输入以及输出数据,而ResourceManager和NodeManager是Hadoop集群资源管理系统YARN的组件,负责CPU和内存资源的调度。

实战:基于 docker 的 HA-hadoop 集群搭建

我们先来规划下集群:

实战:基于 docker 的 HA-hadoop 集群搭建

我们来解释下上面的几个软件

其中 NameNode 是 hdfs 中的namenode,分为一主,一备,保证高可用:

实战:基于 docker 的 HA-hadoop 集群搭建

主处于active状态,备处于Standby,主备切换通过DFSZKFailoverController配合zookeeper完成。

另外为了保证master上edit日志的高可用,新建了3个JournalNode。

接着我们来看yarn,yarn是一种资源管理系统,负责集群的统一管理和调度

实战:基于 docker 的 HA-hadoop 集群搭建

上面是介绍部分,下面我们来执行高可用集群的搭建

第一步到hadoop目录下,执行 docker-compose up -d

第二步执行 ./start-all.sh

完成上面步骤后,我们就可以根据控制台的输出查看数据了。

实战:基于 docker 的 HA-hadoop 集群搭建

下面是一些集群验证操作:

1. 验证HDFS 是否正常工作及HA高可用

首先向hdfs上传一个文件

/usr/local/hadoop/bin/hadoop fs -put /usr/local/hadoop/README.txt /

在active节点手动关闭active的namenode

/usr/local/hadoop/sbin/hadoop-daemon.sh stop namenode

通过HTTP 50070端口查看standby namenode的状态是否转换为active

手动启动上一步关闭的namenode

/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode

2.验证YARN是否正常工作及ResourceManager HA高可用

运行测试hadoop提供的demo中的WordCount程序:

/usr/local/hadoop/bin/hadoop fs -mkdir /wordcount

/usr/local/hadoop/bin/hadoop fs -mkdir /wordcount/input

/usr/local/hadoop/bin/hadoop fs -mv /README.txt /wordcount/input

/usr/local/hadoop/bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar wordcount /wordcount/input /wordcount/output

验证ResourceManager HA

手动关闭node02的ResourceManager

/usr/local/hadoop/sbin/yarn-daemon.sh stop resourcemanager

通过HTTP 8088端口访问node01的ResourceManager查看状态

手动启动node02 的ResourceManager

/usr/local/hadoop/sbin/yarn-daemon.sh start resourcemanager

代码的github地址:https://github.com/zhuanxuhit/distributed-system/issues/4欢迎关注

你的鼓励是我继续写下去的动力,期待我们共同进步。