Hadoop3.x学习之安装(重点)

我爱海鲸 2023-01-29 21:32:19 大数据、hadoop

简介大数据Hadoop的安装、switchhosts、hosts、jxd9 

0、相关资源

链接:https://pan.baidu.com/s/1dIULdpPpWghpGu7lUYLY9Q 
提取码:

1、首先准备安装vm,安装一个centos的虚拟机

配置的参数如下:

2、配置ip地址和主机名称,将虚拟机的ip地址固定还有主机的名称,参考vm虚拟机centos7设置固定IP

主机映射配置:

192.168.152.100 hadoop100#添加本机的静态IP和本机的主机名之间的映射关系
192.168.152.101 hadoop101
192.168.152.102 hadoop102
192.168.152.103 hadoop103
192.168.152.104 hadoop104
192.168.152.105 hadoop105
192.168.152.106 hadoop106
192.168.152.107 hadoop107
192.168.152.108 hadoop108

如图:

注意配置完以后要ping www.baidu.com 看能否链接外网

3、修改本机电脑的hosts文件

一般在这个目录下:C:\Windows\System32\drivers\etc

添加刚刚的配置

192.168.152.100 hadoop100#添加本机的静态IP和本机的主机名之间的映射关系
192.168.152.101 hadoop101
192.168.152.102 hadoop102
192.168.152.103 hadoop103
192.168.152.104 hadoop104
192.168.152.105 hadoop105
192.168.152.106 hadoop106
192.168.152.107 hadoop107
192.168.152.108 hadoop108

可以使用swithchosts工具进行修改(注意使用管理员的权限启动)

如出现

修改hosts一些权限属性,如下:

然后就能够修改了

4、安装相关的软件以及关闭防火墙

yum install -y epel-release

yum install -y net-tools 工具包集合

yum install -y vim 编辑器

systemctl stop firewalld.service 关闭防火墙

systemctl disable firewalld.service 开机关闭

5、添加一个用户

useradd haijin

passwd haijin

给haijin用户添加权限:

编辑:vim /etc/sudoers

haijin    ALL=(ALL)       NOPASSWD:ALL

注意:haijin这一行不要直接放到root行下面,因为所有用户都属于wheel组,你先配置了haijin具有免密功能,但是程序执行到%wheel行时,该功能又被覆盖回需要密码。所以haijin要放到%wheel这行下面。

切换为haijin用户:su haijin

在/opt目录中创建几个文件夹

sudo mkdir module

sudo mkdir software

更改所有者:

sudo chown haijin:haijin module/ software/

如图:

卸载jdk

[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps

  • rpm -qa:查询所安装的所有rpm软件包
  • grep -i:忽略大小写
  • xargs -n1:表示每次只传递一个参数
  • rpm -e –nodeps:强制卸载软件

然后reboot重启虚拟机

6、克隆三台虚拟机

利用模板机hadoop100,克隆三台虚拟机:hadoop102 hadoop103 hadoop104

       注意:克隆时,要先关闭hadoop100

修改对应的ip和主机名:

192.168.152.102 hadoop102 
192.168.152.103 hadoop103 
192.168.152.104 hadoop104 

7、安装jdk

将jdk和hadoop等jar包放到/opt/software目录中

tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/ 将jdk解压到/opt/module 目录中

使用命令:sudo vim /etc/profile.d/my_env.sh 

添加如下配置:

#JAVA_HOME

export JAVA_HOME=/opt/module/jdk1.8.0_212

export PATH=$PATH:$JAVA_HOME/bin

让环境生效:source /etc/profile

8、安装Hadoop

tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/  将hadoop解压到/opt/module 目录中

使用命令:sudo vim /etc/profile.d/my_env.sh

添加如下配置:

#HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-3.1.3

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

让环境生效:source /etc/profile

1)bin目录:存放对Hadoop相关服务(hdfs,yarn,mapred)进行操作的脚本

(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件

(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)

(4)sbin目录:存放启动或停止Hadoop相关服务的脚本

(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例

9、Hadoop运行模式

Hadoop官方网站:http://hadoop.apache.org/

Hadoop运行模式包括:本地模式伪分布式模式以及完全分布式模式

  • 本地模式:单机运行,只是用来演示一下官方案例。生产环境不用。
  • 伪分布式模式:也是单机运行,但是具备Hadoop集群的所有功能,一台服务器模拟一个分布式的环境。个别缺钱的公司用来测试,生产环境不用。
  • 完全分布式模式:多台服务器组成分布式环境。生产环境使用。

10、基本测试:

mkdir /opt/module/hadoop-3.1.3/wcinput 创建一个文件夹

在wcinput中vim word.txt

输入:

haijin
12345
ss
yy
qq
dd
haijin

在hadoop目录下输入:bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount wcinput/ wcoutput/

然后hadoop就会进行计算,我们可以在wcoutput/下查看计算后的结果(注意输出的wcoutput/不能存在)

如图:

这样我们hadoop的本地搭建就已经完成了,下次我们再来进行完全分布式的安装。

 

 

你好:我的2025