1. 设置主机名
【4台机器都要修改】
1 | hostnamectl set-hostname cd001 |
2. 配置DNS
【配置本地hosts映射】
1 | vim /etc/hosts |
3. 关闭防火墙
【4台机器都要做】
1 | # 关闭服务 |
4. 配置免密登陆
【4台机器都要做】
1 | # 生成ssh密钥【会在~/ssh文件夹下生成id_rsa和id_rsa.pub两个文件】 |
5. 下载Java和hadoop包
【放在/root/opt/文件夹下】
1 | # cd到/opt下,下载hadoop |
6. 配置hadoop环境脚本文件中的JAVA_HOME参数
1 | # 进入hadoop安装目录下的/etc/hadoop文件夹下 |
- 此处修改的JAVA_HOME的地址不能用${JAVA_HOME},会报错,一定要修改成绝对路径
7. 修改hadoop配置文件
- core-site.xml
1
2
3
4
5
6
7
8
9
10<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://cdh001:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/data/hadoopdata</value>
</property>
</configuration> - hdfs-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/data/hadoopdata/name</value>
<description>为了保证元数据的安全一般配置多个不同目录</description>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/data/hadoopdata/data</value>
<description>datanode 的数据存储目录</description>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
<description>HDFS 的数据块的副本存储个数, 默认是3</description>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>cdh001:50090</value>
<description>secondarynamenode 运行节点的信息,和 namenode 不同节点</description>
</property>
</configuration> - mapred-site.xml
1
2
3
4
5
6
7
8
9cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
# 修改内容如下
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration> - yarn-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop4</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
<description>YARN 集群为 MapReduce 程序提供的 shuffle 服务</description>
</property>
</configuration> - slaves
1
2
3
4cdh001
cdh002
cdh003
cdh004
8. 将配置好的hadoop文件夹拷贝至其他机器
1 | scp -r /opt/hadoop... root@cdh002/003/004:/opt/ |
9. 格式化和启动
【只有cdh001需要格式化和启动】
1 | # 格式化(去hadoop安装目录下) |
10. 验证
每个机器输入jps命令查看