Hadoop完全分布式部署3.1.3

这篇具有很好参考价值的文章主要介绍了Hadoop完全分布式部署3.1.3。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

提示:个人学习所用,仅供参考

目录

前言

一、前提条件

二、安装Java1.8

1.使用wget将安装包下载到虚拟机中

2.将下载好的jdk安装包解压到local目录下

3.配置java环境变量

4.使环境变量生效:

5.测试java 是否安装成功:

6.如图即为安装成功:

7.将环境变量跟jdk安装包分发到子节点(此操作需要配置免密登录和本地主机名):

8.分发完之后使环境变量生效即可(每个节点都需要):

三、Hadoop3.1.3安装部署

1.将Hadoop安装包解压到local目录下

2.配置Hadoop环境变量

3.进入hadoop中的etc/hadoop目录下修改六个配置文件

1)workers添加两个子节点的主机名

2)输入vi core-stie.xml 添加以下内容:

3)输入vi hadoo-env.sh 添加以下内容:

4)输入vi mapred-site.xml,添加以下内容:

5)输入vi hdfs-site.xml 添加以下内容:

6)输入vi yarn-site.xml,添加以下内容:

4.将配置文件分发到子节点

5.将hadoop的配置文件修改完成后,在主节点上进行namenode格式化

6.到hadoop的bin目录下修改,在start-dfs.sh 和stop-dfs.sh添加以下内容

7.到hadoop的bin目录下修改,在start-yarn.sh 和 stop-yarn.sh添加以下内容

8.输入jps测试节点是否运行

总结


前言

本节文章讲述了如何安装Hadoop完全分布式部署,配置文件很多默认的端口并没有开放,可以自行去官网上参考配置文档进行配置


提示:以下是本篇文章正文内容,下面案例可供参考

一、前提条件

  1. 准备三台虚拟机:master、slave1、slave2,设置他们的静态ip分别为192.168.147.201、192.168.147.202、192.168.147.203.(可参考自己本地的虚拟机网段来设置)
主机名 静态ip
master 192.168.147.201
slave1 192.168.147.202
slave2 192.168.147.203

二、安装Java1.8

1.使用wget将安装包下载到虚拟机中

使用命令如下(使用的是华为的镜像云网站,可自行修改其他镜像网站的安装包):

 wget https://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-i586.tar.gz

2.将下载好的jdk安装包解压到local目录下

代码如下(解压完成之后可以将他重命名为java,方便配置环境变量):
tar -zxvf jdk-8u151-linux-i586.tar.gz -C /usr/local

3.配置java环境变量

输入vi /etc/profile配置java环境变量,添加以下内容:

export JAVA_HOME=/usr/local/java

export PATH=$PATH:$JAVA_HOME/bin

4.使环境变量生效:

source /etc/profile

5.测试java 是否安装成功:

java -version

6.如图即为安装成功:

Hadoop完全分布式部署3.1.3

7.将环境变量跟jdk安装包分发到子节点(此操作需要配置免密登录和本地主机名):

scp -r /etc/profile slave1:/etc/   #分发环境变量

scp -r /etc/profile slave2:/etc/   #分发环境变量

scp -r /usr/local/java/ slave1:/usr/local/  #分发jdk安装包

scp -r /usr/local/java/ slave2:/usr/local/    #分发jdk安装包

8.分发完之后使环境变量生效即可(每个节点都需要):

source /etc/profile

三、Hadoop3.1.3安装部署

1.将Hadoop安装包解压到local目录下

tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local/

2.配置Hadoop环境变量

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_HOME=/usr/local/Hadoop

3.进入hadoop中的etc/hadoop目录下修改六个配置文件

1)workers添加两个子节点的主机名

slave1

slave2

2)输入vi core-stie.xml 添加以下内容:

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://master</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/Hadoop/tmp</value>

</property>

</configuration>

3)输入vi hadoo-env.sh 添加以下内容:

export JAVA_HOME=/usr/local/java

4)输入vi mapred-site.xml,添加以下内容:

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>yarn.app.mapreduce.am.env</name>

<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>

</property>

<property>

<name>mapreduce.map.env</name>

<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>

</property>

<property>

<name>mapreduce.reduce.env</name>

<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>

</property>

</configuration>

5)输入vi hdfs-site.xml 添加以下内容:

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/usr/local/hadoop/dfs/tmp/namenode</value>

</property>

<property>

<name>dfs.datanode.dir</name>

<value>/usr/local/hadoop/datanode</value>

</property>

</configuration>

6)输入vi yarn-site.xml,添加以下内容:

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

</configuration>

将Hadoop安装包分发到子节点 

scp -r /usr/local/hadoop/ slave1:/usr/local/

scp -r /usr/local/hadoop/ slave2:/usr/local/

4.将配置文件分发到子节点

scp -r /etc/profile slave1:/etc/

scp -r /etc/profile slave2:/etc/

5.将hadoop的配置文件修改完成后,在主节点上进行namenode格式化

hdfs namenode -format

Hadoop完全分布式部署3.1.3

6.到hadoop的bin目录下修改,在start-dfs.sh 和stop-dfs.sh添加以下内容

HDFS_DATANODE_USER=root

HDFS_DATANODE_SECURE_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

7.到hadoop的bin目录下修改,在 和 stop-yarn.sh添加以下内容

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

8.输入jps测试节点是否运行

Hadoop完全分布式部署3.1.3

总结

本章内容讲述了如何部署hadoop的基本步骤,前置条件需要靠自己完成,思路清晰,简单明了。文章来源地址https://www.toymoban.com/news/detail-450842.html

到了这里,关于Hadoop完全分布式部署3.1.3的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 部署HDFS集群(完全分布式模式、hadoop用户控制集群、hadoop-3.3.4+安装包)

    部署HDFS集群(完全分布式模式、hadoop用户控制集群、hadoop-3.3.4+安装包)

    目录 前置 一、上传解压 (一 )上传 (二)解压 二、修改配置文件 (一)配置workers文件 (二)配置hadoop-env.sh文件 (三)配置core-site.xml文件 (四)配置hdfs-site.xml文件 三、分发到hp2、hp3, 并设置环境变量 (一)准备数据目录    (二)配置环境变量 四、创建数据目录,并

    2024年04月14日
    浏览(20)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(14)
  • hadoop完全分布式

    hadoop完全分布式

    三台虚拟机,关闭防火墙,关闭selinux 查看防火状态 systemctl status firewalld 暂时关闭防火墙 systemctl stop firewalld 永久关闭防火墙 systemctl disable firewalld 查看 selinux状态 getenforce 暂时关闭 selinux setenforce 0 永久关闭 selinux 在/etc/selinux/config文件中将SELINUX改为disabled 修改主机名: hostn

    2023年04月12日
    浏览(14)
  • 搭建完全分布式Hadoop

    搭建完全分布式Hadoop

    登录三个虚拟机 执行命令: vim /etc/hosts 1、上传安装包 上传hadoop安装包 查看hadoop安装包 2、解压缩安装包 执行命令: tar -zxvf hadoop-3.3.4.tar.gz -C /usr/local 查看解压后的目录 3、配置环境变量 执行命令: vim /etc/profile 存盘退出,执行命令: source /etc/profile ,让配置生效 查看had

    2024年02月04日
    浏览(19)
  • Hadoop完全分布式搭建

    Hadoop完全分布式搭建

    1.下载VM 2.下载Centos镜像 3.下载hadoop 4.下载FinalShell 5.下载jdk文件  6.下载hive,数据仓库学习大数据专业的用的到     注:开启虚拟机把鼠标放入屏幕点击后消失,使用键盘上下键进行选择   注:点击之后,什么都不动,再点击完成(因为它自动帮我们分区了) 注:我们配置

    2024年02月04日
    浏览(14)
  • 大数据学习02-Hadoop分布式集群部署

    大数据学习02-Hadoop分布式集群部署

    操作系统:centos7 软件环境:jdk8、hadoop-2.8.5 1.下载VMware,建议支持正版 2.安装到Widows目录下任意位置即可,安装目录自定义。打开VMware,界面如下: 3.创建虚拟机 创建虚拟机—选择自定义 这一步按照默认的配置就好 选择系统,安装程序光盘映像文件iso,这里需要下载cenos镜像

    2024年02月16日
    浏览(15)
  • Hadoop的完全分布式搭建

    Hadoop的完全分布式搭建

    主机名 Hadoop10 Hadoop11 Hadoop12 网络 192.168.10.10 192.168.10.11 192.168.10.12 用户 hadoop root hadoop root hadoop root HDFS NameNode DateNode DateNode Secondary NameNode DataNode YARN NodeManager NodeManager ResourceManager NodeManager 安装虚拟机系统,省略 第一步:网卡配置 使用 vi 编辑器编辑系统的网卡配置文件,配置以下

    2024年02月08日
    浏览(14)
  • Hadoop 完全分布式集群搭建

    Hadoop 完全分布式集群搭建

    部署前可以先了解下 Hadoop运行模式及目录结构-CSDN博客 服务 hadoop102 hadoop103 hadoop104 NameNode √ DataNode √ √ √ Secondary NameNode √ ResourceManager √ NodeManager √ √ √ JobHistoryServer √ IPv4 192.168.88.102 192.168.88.103 192.168.88.104 NodeObject master worker1 worker2 最小化安装 Neokylin7.0 用于搭建 Had

    2024年02月04日
    浏览(31)
  • 【Hadoop】完全分布式集群搭建

    【Hadoop】完全分布式集群搭建

    大家好,我是向阳花花花花,这篇文章是我历时三天,推翻重做两小时进行搭建的Hadoop集群(完全分布式)个人笔记和感想,收录于初心的《大数据》专栏。 🏠 个人主页:初心%个人主页 🧑 个人简介:大家好,我是初心,一名正在努力的双非二本院校计算机专业学生 💕

    2024年02月15日
    浏览(16)
  • Hadoop完全分布式集群搭建

    Hadoop完全分布式集群搭建

    1.在虚拟机关机的状态下选择克隆 2.开始克隆 3.选择从当前状态创建 4.创建一个完整的克隆 5.选择新的虚拟机存储位置(选择内存充足的磁盘) 6.开始克隆 7.克隆完成 8.同样的方法克隆第二台虚拟机 9.在计算机中存在三台虚拟机 将第一台虚拟机更名为hadoop01 修改hadoop01的主机

    2024年02月02日
    浏览(11)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包