1、环境准备
1.1、centOS7:内核版本3.10.0-1160.49.1.el7.x86_64
1.2、关闭防火墙:systemctl disable firewalld
1.3、三台机器地址:192.168.137.129、192.168.137.130、192.168.137.131
1.4、三台机器的hostname:cat /etc/hostname
localhost.localdomain1
localhost.localdomain2
localhost.localdomain2
第一台虚拟机
第二台虚拟机
第三台虚拟机
1.5、配置hosts:vim /etc/hosts,添加如下内容
192.168.137.129 hp1 localhost.localdomain1
192.168.137.130 hp2 localhost.localdomain2
192.168.137.131 hp3 localhost.localdomain3
1.6、新建目录:
mkdir -p /export/server/
mkdir -p /export/data/
mkdir -p /export/software/
1.7、配置jdk环境:
通过yum安装的jdk
vim /etc/profile添加如下内容:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.312.b07-1.el7_9.x86_64/jre
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
jdk环境配置
若配置java环境报此错误:Similar command is: 'lz',执行以下命令:
export PATH=/bin:/usr/bin:$PATH
2、hadoop配置
2.1、hadoop下载地址:https://archive.apache.org/dist/hadoop/common/
本篇下载的hadoop3.2.0版本
hadoop下载
2.2、本地hadoop-3.2.0.tar.gz上传到1.6新建的server目录中,并解压:
scp -r hadoop-3.2.0.tar.gz root@192.168.137.129:/export/server
tar -xvzf hadoop-3.2.0.tar.gz
2.3、配置hadoop
配置hadoop需要进入如下目录:/export/server/hadoop-3.2.0/etc/hadoop
2.3.1、配置hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.312.b07-1.el7_9.x86_64/jre
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
2.3.2、配置core-site.xml
2.3.3、配置hdfs-site.xml
2.3.4、配置mapred-site.xml
2.3.5、配置yarn-site.xml
2.3.6、配置workers
localhost.localdomain1
localhost.localdomain2
localhost.localdomain3
2.4、配置hadoop环境变量:vim /etc/prifile
export HADOOP_HOME=/export/server/hadoop-3.2.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
hadoop环境变量
2.5、免密登录设置
在192.168.137.129虚拟机上执行如下命令:
ssh-keygen -t rsa
ll -a
cd .ssh
ssh-copy-id -i id_rsa.pub root@192.168.137.129
ssh-copy-id -i id_rsa.pub root@192.168.137.130
ssh-copy-id -i id_rsa.pub root@192.168.137.131
2.6、进行格式化操作(NameNode format)
hdfs namenode -format
2.7、启动
start-dfs.sh
start-yarn.sh
2.8、停止
stop-all.sh
3、说明
三台虚拟机上都要进行【2、hadoop配置】配置
4、测试集群环境
4.1、查看hdfs:
http://192.168.137.129:9870
hdfs
4.2、查看yarn
http://192.168.137.129:8088
yarn
5、报错处理
5.1、ping 192.168.137.129正常,浏览器访问http://192.168.137.129:9870报错,就在hdfs-site.xml中配置如下:
5.2、执行了多次hdfs namenode -forma命令,浏览器访问http://192.168.137.129:9870出现Live Nodes为0的情况,如下图:
图为修改之后的情况,这里举例说明
解决方法:将/export/data目录删除,再新建data目录。进入export目录(cd /export),删除data(rm -rf data),新建data(mkdir data)。所有虚拟机都要这么做。修改之前上图中的指标全部为0,修改之后就会与上图一样。
留言与评论(共有 0 条评论) “” |