CentOS7搭建Hadoop-3.3.0集群手记-程序员宅基地

技术标签: java  linux  hadoop  大数据  docker  

前提

这篇文章是基于Linux系统CentOS7搭建Hadoop-3.3.0分布式集群的详细手记。

基本概念

Hadoop中的HDFSYARN都是主从架构,主从架构会有一主多从和多主多从两种架构,这里为了简化搭建集群的流程,这里使用一主多从的架构。Hadoop集群中各个角色的名称如下:

服务 主节点 从节点
HDFS NameNode DataNode
YARN ResourceManager NodeManager

还有SecondaryNameNode,其实是NameNode的备用节点,定时合并和处理日志并且反馈到NameNode上。一般NameNode和SecondaryNameNode尽量不要放在同一个节点。

HDFS服务和YARN其实是分离的,一者是数据存储,另一者是资源调度,Hadoop集群可以只启用YARN集群做资源调度。

测试集群服务器规划

测试的Hadoop集群使用了3台基于VirtualBox搭建的CentOS7虚拟机:

内网IP 主机名 用户 虚拟磁盘空间 HDFS角色 YARN角色
192.168.56.200 hadoop01 hadoop 30GB NameNodeDataNode NodeManager
192.168.56.201 hadoop02 hadoop 30GB DataNode NodeManager
192.168.56.202 hadoop03 hadoop 30GB SecondaryNameNodeDataNode ResourceManagerNodeManager

前置软件安装或者准备工作

主要包括必要的软件安装、用户创建和网络配置等等。

关闭防火墙

为了避免出现部分端口无法访问,内网环境下每台虚拟机都可以直接关闭防火墙:

# 停止防火墙进程
systemctl stop firewalld.service

# 禁用防火墙开机启动
systemctl disable firewalld.service

JDK安装

JDK的安装比较简单,这里过程略过。笔者使用的JDKOpenJDK,版本是1.8.0_252-b09JDK路径配置如下:

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.252.b09-2.el7_8.x86_64
export PATH=$JAVA_HOME/bin:$PATH

「确保集群所有机器的JDK安装位置相同,并且JDK版本尽可能大版本选择8,经过大量测试发现Hadoop暂时不兼容JDK9+

[root@localhost]# java -version
openjdk version "1.8.0_252"
OpenJDK Runtime Environment (build 1.8.0_252-b09)
OpenJDK 64-Bit Server VM (build 25.252-b09, mixed mode)

这个JDK安装位置和安装包名称是不是看起来比较奇怪?没错,是笔者偷懒用yum直接安装的OpenJDK。

修改主机名

三个节点分别通过hostnamectl set-hostname $hostname修改主机名:

# 节点192.168.56.200
hostnamectl set-hostname hadoop01
reboot

# 节点192.168.56.201
hostnamectl set-hostname hadoop02
reboot

# 节点192.168.56.202
hostnamectl set-hostname hadoop03
reboot

最终效果如下:

Connecting to 192.168.56.200:22...
Connection established.
To escape to local shell, press 'Ctrl+Alt+]'.

WARNING! The remote SSH server rejected X11 forwarding request.
Last login: Sun Dec 13 06:42:42 2020 from 192.168.56.1
[root@hadoop01 ~]# 

Connecting to 192.168.56.201:22...
Connection established.
To escape to local shell, press 'Ctrl+Alt+]'.

WARNING! The remote SSH server rejected X11 forwarding request.
Last login: Sun Dec 13 07:51:28 2020 from 192.168.56.1
[root@hadoop02 ~]#

Connecting to 192.168.56.202:22...
Connection established.
To escape to local shell, press 'Ctrl+Alt+]'.

WARNING! The remote SSH server rejected X11 forwarding request.
Last login: Sun Dec 13 07:52:01 2020
[root@hadoop03 ~]# 

修改hosts文件

在每个节点的hosts文件具体是/etc/hosts尾部添加:

192.168.56.200 hadoop01
192.168.56.201 hadoop02
192.168.56.202 hadoop03

方便后面可以直接通过主机名访问对应的机器。可以在任意一台机器用通过主机名ping任意的主机名:

ping hadoop01
ping hadoop02
ping hadoop03

添加hadoop用户

添加用户的操作需要在root用户下进行。添加一个用户分组、命名和密码都为hadoop的用户:

useradd hadoop
# 设置密码需要手动输入两次密码,笔者这里也暂时设定密码为hadoop
passwd hadoop

通过mkdir -p /data/hadoop创建一个新目录,后面的hadoop相关的数据等文件都放在/data/hadoop目录下。设置目录/data/hadoop的拥有者为hadoop用户:

chown hadoop:hadoop /data/hadoop

最后设置hadoop用户可以不输入密码直接通过sudo su提升为root用户:

chmod u+w /etc/sudoers

vim /etc/sudoers

# 在sudoers文件的root用户一行后面添加下面内容并且保存
hadoop ALL=(ALL) NOPASSWD:ALL

chmod u-w /etc/sudoers

效果如下:

验证一下是否成功:

# 在root用户下切换hadoop用户
su hadoop

# 在hadoop用户下无密码切换root用户
sudo su

# 效果
[root@localhost]# su hadoop
[hadoop@localhost]$ sudo su
[root@localhost]# 

创建hadoop用户需要在集群中每台机器操作一次。

设置集群机器SSH免登

设置集群机器SSH免登这一步十分重要,无论是scp命令去拷贝文件到各个机器,还是集群启动和通讯过程都依赖这一步。集群中每个机器都进行下面步骤操作:

  • 使用su hadoop切换到hadoop用户

  • 使用ssh-keygen -t rsa命令,接着连按几次回车,生成公钥,执行完毕后/home/hadoop/.ssh/目录下会多了一个id_rsa.pub

  • 收集集群中所有节点的/home/hadoop/.ssh/id_rsa.pub内容,汇总合并成一个authorized_keys文件,再拷贝该文件到所有集群节点的/home/hadoop/.ssh/ssh目录下

  • 授权chmod 700 /home/hadoop/.ssh/ && chmod 700 /home/hadoop/ && chmod 600 /home/hadoop/.ssh/authorized_keys

最终笔者的/home/hadoop/.ssh/authorized_keys文件内容如下:

可以使用下面的脚本替代手工操作:

# 拷贝三个节点的RSA公钥到authorized_keys中,可以在第一个节点中执行即可
for a in {1..3}; do sudo ssh hadoop@hadoop0$a cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys; done
# 拷贝authorized_keys到三个节点中,可以在第一个节点中执行即可
for a in {1..3}; do sudo scp /home/hadoop/.ssh/authorized_keys hadoop@hadoop0$a:/home/hadoop/.ssh/authorized_keys ; done

最终的效果如下:

安装Hadoop

主要在hadoop01节点中安装即可,安装完毕可以通过scp命令直接拷贝文件分发到不同的节点中。赋予用户/data/hadoop目录的读写权限:

su hadoop
sudo chmod -R a+w /data/hadoop

「这一步极其重要,否则容易导致运行集群的时候创建文件夹权限不足」。这里记住不要主动创建Hadoop文件系统中的目录,否则容易导致DataNode启动失败。

1、解压安装

切换目录和用户:

  • su hadoop

  • cd /data/hadoop

下载和解压hadoop-3.3.0

wget https://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
tar -zxvf hadoop-3.3.0.tar.gz 

解压完毕后,/data/hadoop目录下会多了一个hadoop-3.3.0文件夹。

2、环境变量配置

重命名一下文件夹mv hadoop-3.3.0 app,也就是最终的HADOOP_HOME/data/hadoop/app,可以先提前修改一下用户配置vim ~/.bashrc「所有节点都要添加」),添加:

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.252.b09-2.el7_8.x86_64
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/data/hadoop/app
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

刷新一下用户配置source ~/.bashrc

3、查看版本

调用hadoop version

[hadoop@hadoop01 hadoop]$ hadoop version
Hadoop 3.3.0
Source code repository https://gitbox.apache.org/repos/asf/hadoop.git -r aa96f1871bfd858f9bac59cf2a81ec470da649af
Compiled by brahma on 2020-07-06T18:44Z
Compiled with protoc 3.7.1
From source with checksum 5dc29b802d6ccd77b262ef9d04d19c4
This command was run using /data/hadoop/app/share/hadoop/common/hadoop-common-3.3.0.jar

这样就能确定JDKHadoop的位置配置没有问题,接着开始配置Hadoop中的应用配置。

4、Hadoop配置

配置core-site.xml(具体是/data/hadoop/app/etc/hadoop/core-site.xml):

<configuration>
    <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop01:9000</value>
    </property>
    <property>
            <name>hadoop.tmp.dir</name>
            <value>/data/hadoop/temp</value>
    </property>
</configuration>
  • fs.defaultFSnameNodeHDFS协议的文件系统通信地址

  • hadoop.tmp.dirHadoop集群在工作的时候存储的一些临时文件的目录

配置hdfs-site.xml(具体是/data/hadoop/app/etc/hadoop/hdfs-site.xml):

<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/data/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/data/hadoop/dfs/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.secondary.http.address</name>
        <value>hadoop03:50090</value>
    </property>
    <property>
        <name>dfs.http.address</name>
        <value>192.168.56.200:50070</value>
    </property>
</configuration>
  • dfs.namenode.name.dirNameNode的数据存放目录

  • dfs.datanode.data.dirDataNode的数据存放目录

  • dfs.replicationHDFS的副本数

  • dfs.secondary.http.addressSecondaryNameNode节点的HTTP入口地址

  • dfs.http.address:通过HTTP访问HDFSWeb管理界面的地址

配置mapred-site.xml(具体是/data/hadoop/app/etc/hadoop/mapred-site.xml):

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.map.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.reduce.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
</configuration>
  • mapreduce.framework.name:选用yarn,也就是MR框架使用YARN进行资源调度。

配置yarn-site.xml(具体是/data/hadoop/app/etc/hadoop/yarn-site.xml):

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop03</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
  • yarn.resourcemanager.hostname:指定ResourceManager所在的主机名

  • yarn.nodemanager.aux-services:指定YARN集群为MapReduce程序提供Shuffle服务

配置workers文件(这个文件在旧版本叫slaves,因为技术政治化运动被改为workers,具体是/data/hadoop/app/etc/hadoop/workers

hadoop01
hadoop02
hadoop03

至此,核心配置基本完成。

5、分发Hadoop安装包到其他节点

重点提示三次:

  • 所有节点的Hadoop安装包位置和配置信息必须一致

  • 所有节点的Hadoop安装包位置和配置信息必须一致

  • 所有节点的Hadoop安装包位置和配置信息必须一致

在节点hadoop01使用scp命令进行分发:

## 分发节点2
scp -r /data/hadoop/app hadoop@hadoop02:/data/hadoop

## 分发节点3
scp -r /data/hadoop/app hadoop@hadoop03:/data/hadoop

6、格式化NameNode

规划中是hadoop01作为NameNode,在该机器下进行格式化:

hadoop namenode -format

格式化NameNode成功的控制台日志如下:

7、启动和停止HDFS

可以在任意一个节点中启动和停止HDFS,为了简单起见还是在hadoop01节点中操作:

  • 启动:start-dfs.sh

  • 停止:stop-dfs.sh

调用启动命令后,控制台输出如下:

[hadoop@hadoop01 hadoop]$ start-dfs.sh 
Starting namenodes on [hadoop01]
Starting datanodes
Starting secondary namenodes [hadoop03]

8、启动和停止YARN

YARN集群的启动命令必须在ResourceManager节点中调用,规划中的对应角色的节点为hadoop03,在该机器执行YARN相关命令:

  • 启动:start-yarn.sh

  • 停止:stop-yarn.sh

执行启动命令后,控制台输出如下:

[hadoop@hadoop03 data]$ start-yarn.sh 
Starting resourcemanager
Starting nodemanagers

9、查看所有节点的进程状态

分别查看集群中所有节点的进程状态,可以直接使用jps工具,具体结果如下:

[hadoop@hadoop01 hadoop]$ jps
8673 NameNode
8823 DataNode
9383 NodeManager
9498 Jps

[hadoop@hadoop02 hadoop]$ jps
4305 DataNode
4849 Jps
4734 NodeManager

[hadoop@hadoop03 data]$ jps
9888 Jps
9554 NodeManager
5011 DataNode
9427 ResourceManager
5125 SecondaryNameNode

可见进程是正常运行的。

10、通过WEB管理界面查看集群状态

访问入口如下:

  • HDFS入口:http://192.168.56.200:50070(来自于hdfs-site.xmldfs.http.address配置项)

  • YARN入口:http://192.168.56.202:8088/clusterResourceManager所在节点的8088端口)

数据节点状态如下:

YARN集群状态如下:

使用Hadoop

通过几个简单的例子尝试使用Hadoop集群。

创建目录和展示目录

测试一下创建目录和展示目录:

[hadoop@hadoop01 hadoop]$ hadoop fs -mkdir -p /test
[hadoop@hadoop01 hadoop]$ hadoop fs -ls /
Found 1 items
drwxr-xr-x   - hadoop supergroup          0 2020-12-13 10:55 /test

上传和下载文件

创建一个words.txt,写入内容并且上传到上一小节创建的test文件夹中:

cd /data/hadoop
touch words.txt
echo 'hello world' >> words.txt
hadoop fs -put words.txt /test

然后在HDFSWEB界面中查看:

下载该文件到/data/hadoop/download.txt

[hadoop@hadoop01 hadoop]$ hadoop fs -get /test/words.txt /data/hadoop/download.txt && \
cat /data/hadoop/download.txt
hello world

执行WordCount程序

上传一个文件到HDFS/test/input目录:

cd /data/hadoop && \
hadoop fs -mkdir -p /test/input && \
touch words-input.txt && \
echo 'hello world' >> words-input.txt && \
echo 'hello java' >> words-input.txt && \
echo 'hello hadoop' >> words-input.txt && \
hadoop fs -put words-input.txt /test/input

自带的例子在目录/data/hadoop/app/share/hadoop/mapreducehadoop-mapreduce-examples-3.3.0.jar中,通过命令运行WordCount程序:

hadoop jar /data/hadoop/app/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.0.jar wordcount /test/input /test/output

MR的执行过程如下:

查看YARN管理界面对应的Job状态:

可知任务最终的执行状态为成功。最后可以通过hadoop fs -cat命令查看结果:

[hadoop@hadoop01 hadoop]$ hadoop fs -ls /test/output
Found 2 items
-rw-r--r--   3 hadoop supergroup          0 2020-12-13 11:19 /test/output/_SUCCESS
-rw-r--r--   3 hadoop supergroup         32 2020-12-13 11:19 /test/output/part-r-00000
[hadoop@hadoop01 hadoop]$ hadoop fs -cat /test/output/part-r-00000
hadoop 1
hello 3
java 1
world 1

小结

本文花了大量时间详细记录了如何从零开始搭建一个Hadoop集群,基于此才能进一步学习和使用Hadoop生态中的组件如HiveSqoopHbase等等,后续会逐个击破。

(本文完 c-2-d e-a-20201213)

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/zjcsuct/article/details/111189487

智能推荐

Laya的粒子效果-程序员宅基地

文章浏览阅读1.6k次,点赞2次,收藏3次。参考:UI页面、粒子、动画、脚本新建面板详解Laya版本:2.5.0一创建一个粒子效果在UI编辑界面右键-> 新建 -> 粒子粒子有重力模式和半径模式重力模式:粒子是一个角度向另一个方向呈发射式的粒子效果半径模式:围绕中心点为半径的旋转式粒子效果两个模式除了初始参数不同,没有什么区别。你可以创建一个重力模式粒子,然后通过调整参数,实现半径模..._laya 粒子效果

flutter 加密安全-程序员宅基地

文章浏览阅读1.4k次,点赞20次,收藏18次。数据的加密解密操作在 日常网络交互中经常会用到,现在密码的安全主要在于 秘钥的安全,如论 DES 3DES AES 还是 RSA, 秘钥的算法(计算秘钥不固定) 和 保存,都决定了你的数据安全;但是常见的逆向操作 比如 hook 加密算法 都很容易拿到 秘钥; 这个时候我们可以 回溯到 之前的 古典密码学(依赖算法本身),基本思路 置换 移位 编码 等等手段 来配合 加密算法一起使用,提高我们应用的安全;

Verilog测试:TestBench结构_verilog testbench-程序员宅基地

文章浏览阅读6.1w次,点赞147次,收藏1k次。目录1. 完整的TESTBENCH文件结构2.时钟激励产生3.复位信号设计4.双向信号设计5. 特殊信号设计6.仿真控制语句以及系统任务描述7.加法器的仿真测试文件编写  Verilog功能模块HDL设计完成后,并不代表设计工作的结束,还需要对设计进行进一步的仿真验证。掌握验证的方法,即如何调试自己的程序非常重要。在RTL逻辑设计中,要学会根据硬件逻辑来写测试程..._verilog testbench

【Java面试题】这道分布式面试题一定要拿下,说说你对CAP的理解?看看高手如何回答_mic老师50万字面试宝典-程序员宅基地

文章浏览阅读284次。分布式架构之所以复杂,就是因为增加了网络通信,而网络通信本身具有不确定性。但是作为业务支撑的整个技术架构,所有业务的处理必须要具备确定性。因此在这样一个矛盾下,导致架构变得更加复杂。面试题”说说你对CAP的理解“这个问题,就是在这个背景下产生的大家好,我是Mic,一个工作了14年的Java程序员。下面我们来分析一下面试官对于这个问题的考察意图。_mic老师50万字面试宝典

Java-编码-Base64-程序员宅基地

文章浏览阅读316次,点赞9次,收藏11次。Java-编码-Base64

sgu288:Best Tournament Schedule(构造)_tournamentschedule时间复杂度-程序员宅基地

文章浏览阅读566次。题目大意: ~~~~~~一场比赛有 n ~n~个参赛选手,要求选手之间两两都有且仅有一次对决。每一轮中一个选手至多可以对决一次,也就是每一轮选出若干对不相交的选手进行对决。现在要求出最少的对决轮数来结束比赛和此时的对决方案。分析: ~~~~~~首先确定答案,当 n ~n~为偶数的时候,答案为 n−1 ~n-1~,否则为 n ~n~,另外,当 n=1 ~n=1~的时候,答案_tournamentschedule时间复杂度

随便推点

箱线图_箱线图的主要用途是什么-程序员宅基地

文章浏览阅读5.2w次,点赞86次,收藏373次。以前对箱线图一直一知半解,这次在网上找到一篇不错的文章。首先,箱形图更多用于多组数据的比较,相对直方图不仅节省了空间,还可以展示出许多直方图不能展示的信息。单组数据则更适合采用直方图,使可视化效果更加直观。文章来源于“镝次元”公众号,在此向作者表示感谢。不会数学统计没关系——5分钟教你轻松掌握箱线图 | 图表家族#242018-01-22 19:00编辑:王艺 版面:胡曼君..._箱线图的主要用途是什么

鸿蒙系统ArkTs语法入门_鸿蒙arkts语法学-程序员宅基地

文章浏览阅读1.2k次,点赞22次,收藏15次。每个语言都有控制流语句就不写测试代码了。arkTs绝大部分语法继承自ts,然后有些许的语法特性变化,这部分我也会在入门的时候一并记上。我之前学过java,所以这不是零基础,至少需要会一种编程语言。新建一个鸿蒙App项目,然后开一个设置按钮进行测试没有条件的话,可以在线测试编程代码。在TypeScript中所有的类型都可以被赋值为空类型null,赋值为空类型时可以和其他同类型对象进行运算,但是无法调用这个对象内部本身的方法,会报空指针异常。_鸿蒙arkts语法学

MS SQL Server2008大数、小数转varchar_dable怎么转成varchar-程序员宅基地

文章浏览阅读443次。试了下str, cast和convert,发现对于小数或大数,多少都存在一些问题,最后经过尝试终于找到一种满意的答案:select cast(HTJE as decimal(20,2)) from T_HTGL where ID = 1002993对于金额部分,这里设置了小数最多2位,能满足需求,尾部的0会自动去除,搞定!..._dable怎么转成varchar

解决el-radio-group只触发一次的问题-程序员宅基地

文章浏览阅读569次,点赞7次,收藏6次。把原来绑在el-radio-group的事件取消调 再el-radio-button俩个上面都绑定@click.native.prevent="changeMerge(1)"一个传1 一个传2 这样就触发了。原来想的是用el-button来写,试过el-button点多少次都会触发二次确认框 但是你需求更改其样式,还要把其样式修改为el-radio-button的样式 工程量比较大 所以没深研究。1.需求是点击合并后,出来二次确认框。现在的问题是点击完出现二次确认框后,再次点击不出来二次确认框了。_el-radio-group

MSVCRTD.lib(crtexew.obj) : error LNK2019: 无法解析的外部符号 _WinMain@16,该符号在函数 ___tmainCRTStartup 中被引用 Debug_pace.lib(crtexew.obj) : error lnk2019: 无法解析的外部符号 _-程序员宅基地

文章浏览阅读1.3k次。原问题:MSVCRTD.lib(crtexew.obj) : error LNK2019: 无法解析的外部符号 _WinMain@16,该符号在函数 ___tmainCRTStartup 中被引用Debug\jk.exe : fatal error LNK1120: 1 个无法解析的外部命令参考了这位大神九年前的博客:https://blog.csdn.net/playstudy/article/details/6661868我的环境是VS2010学习版(以下摘自上文原博客)产生这个问题的_pace.lib(crtexew.obj) : error lnk2019: 无法解析的外部符号 _winmain@16,该符号

smardaten新版本来啦~_smardaten平台页面如何自适应-程序员宅基地

文章浏览阅读311次。目前smardaten已成功服务10+行业,300+大型企业客户,越来越多的用户活跃于平台之上。使用过程中,大家依据各行业的应用场景和需求给我们提出了非常多好的建议和想法,而V8R4C60这个版本的更新内容有很大一部分就来自于这些用户。非常感谢大家的建议,正是这些建议促进我们的产品不断地迭代、进步,变得更好用。_smardaten平台页面如何自适应