Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程

这篇具有很好参考价值的文章主要介绍了Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

实训课题

Hadoop集群安装配置详细搭建过程

实验步骤:

一、虚拟机的安装部署

二、Linux系统安装部署

1.环境准备

2.系统安装

三、Centos系统安装

四、静态网络配置

五、虚拟机完整克隆配置

六、配置hosts文件和ssh免密登录

七、Hadoop集群配置

八、Hadoop集群测试

  • 虚拟机的安装

(1)虚拟软件:VMware16

(2)VMMware版本:VMware Workstation 16 Pro

(3)vmware官方下载地址:https://www.vmware.com/cn/products/workstation-pro/workstation-pro-evaluation.html

(4)安装系统环境:Windows 10

  • Linux系统安装部署

(1)配置环境准备

  1. Cento7镜像文件(尽量下载最小的版本)
  2. 资源网站:清华大学开源软件镜像站 | Tsinghua Open Source Mirror

(2)系统安装

2.1新建虚拟机并且选择安装程序光盘映像文件(iso)

hadoop的安装与配置详细过程,hadoop,linux,运维

2.2虚拟机配置如下

hadoop的安装与配置详细过程,hadoop,linux,运维

三、Centos7系统安装

3.1开启虚拟机

 hadoop的安装与配置详细过程,hadoop,linux,运维

3.2安装Centos7系统

hadoop的安装与配置详细过程,hadoop,linux,运维

3.3进行配置

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

3.4进行登录

hadoop的安装与配置详细过程,hadoop,linux,运维

四、静态网络配置

4.1 检查网络的连通性

命令:ping www.baidu.com 

hadoop的安装与配置详细过程,hadoop,linux,运维

4.2 打开ssh服务

4.2.1查看SSH是否安装 rpm -qa | grep ssh

hadoop的安装与配置详细过程,hadoop,linux,运维

Centos7 默认安装了ssh

4.2.2安装缺失的包、并配置SSH yum install openssh*

hadoop的安装与配置详细过程,hadoop,linux,运维

完成!!!!

4.2.3注册使用服务,重启SSH服务
systemctl enable sshd
service sshd restart

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

4.3配置虚拟机的网络

hadoop的安装与配置详细过程,hadoop,linux,运维

4.4修改网络配置文件(ifcfg-ens33

命令:vi /etc/sysconfig/network-scripts/ifcfg-ens33

hadoop的安装与配置详细过程,hadoop,linux,运维

Ps:如果配置完成后无法连通网络,添加centos7的mac地址到ifcfg-ens33中。

4.5 重启网络服务,查看配置是否成功

hadoop的安装与配置详细过程,hadoop,linux,运维

4.6重启虚拟机后,查看是否连通网络

命令:重启reboot ;查看ifconfig;检查ping www.baidu.com

五、虚拟机完整克隆配置

5.1克隆虚拟机

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

5.2修改主机名

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

5.3修改网络配置文件

hadoop的安装与配置详细过程,hadoop,linux,运维

5.4重新启动网络配置

hadoop的安装与配置详细过程,hadoop,linux,运维

六、配置hosts文件和ssh免密登录

1.修改hosts配置文件(所有虚拟机都需要配置此文件,此处只列举一台虚拟机

命令:vi  /etc/hosts

hadoop的安装与配置详细过程,hadoop,linux,运维

2.生成秘钥文件(四次回车)

命令:ssh-keygen -t rsa

hadoop的安装与配置详细过程,hadoop,linux,运维

3.将本机公钥文件复制到其它虚拟机上(接收方需先开机)

命令:ssh-copy-id yangjian01

ssh-copy-id yangjian02

ssh-copy-id yangjian03

ssh-copy-id yangjian00

hadoop的安装与配置详细过程,hadoop,linux,运维

4.上一步的命令在虚拟机yangjian00 yangjian01 yangjian02,yangjian03都需要执行,保证三台主机都能够免密登录

5.测试是否免密登录成功(ssh yangjian01)

hadoop的安装与配置详细过程,hadoop,linux,运维

成功!!!!

七、Hadoop集群配置

1.在所有centos7虚拟机根目录下新建文件夹export,export文件夹中新建data、servers和software文件

命令: mkdir -p /export/data

mkdir -p /export/servers

mkdir -p /export/software

2.准备安装包

hadoop的安装与配置详细过程,hadoop,linux,运维

3.下载安装软件SecureCRT和FX

4.利用FX将安装包传输到centos7虚拟机根目录下/export/software文件夹内

hadoop的安装与配置详细过程,hadoop,linux,运维

5.安装JDK(所有虚拟机都要配置)

5.1 解压JDK

cd /export/software

tar -zxvf jdk-8u144-linux-x64.tar.gz -C /export/servers/

5.2配置环境变量

编辑文件:vi /etc/profile

#tip:在配置文件末尾追加

export JAVA_HOME=/export/servers/ jdk-1.8.4-144

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export JAVA_HOME PATH CLASSPATH

5.3 使配置文件生效

hadoop的安装与配置详细过程,hadoop,linux,运维

5.4 查看是否配置成功

hadoop的安装与配置详细过程,hadoop,linux,运维

6.安装Hadoop(所有虚拟机都要配置)

6.1 解压hadoop

cd /export/software

tar -zxvf hadoop-2.7.3.tar.gz -C /export/servers/

6.2 打开配置文件 vi/etc/profile

6.3 配置环境变量

#tip:在文件末尾追加

export HADOOP_HOME=/export/servers/hadoop-2.7.3

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

hadoop的安装与配置详细过程,hadoop,linux,运维

6.4 使配置文件生效

hadoop的安装与配置详细过程,hadoop,linux,运维

6.5查看是否配置成功

hadoop的安装与配置详细过程,hadoop,linux,运维

7.Hadoop集群配置

7.1 进入配置文件目录

命令:cd /export/servers/hadoop-2.7.3/etc/hadoop/

hadoop的安装与配置详细过程,hadoop,linux,运维

7.2 修改hadoop-env.sh文件

命令:vi hadoop-env.sh

#tip:找到相应位置,添加这段话

export JAVA_HOME=/export/servers/jdk-1.8.4-144

hadoop的安装与配置详细过程,hadoop,linux,运维

7.3 修改core-site.xml文件命令:vi core-site.xml

#tip:下图中乱码部分为注释代码,可以删掉,不影响

<configuration>

    <!--用于设置Hadoop的文件系统,由URI指定-->

    <property>

        <name>fs.defaultFS</name>

        <!--用于指定namenode地址在hadoop01机器上-->

        <value>hdfs://yangjian00:9000</value>

    </property>

    <!--配置Hadoop的临时目录,默认/tem/hadoop-${user.name}-->

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/export/servers/hadoop-2.7.3/tmp</value>

    </property>

</configuration>

hadoop的安装与配置详细过程,hadoop,linux,运维

7.4 修改hdfs-site.xml文件(命令:vi hdfs-site.xml)

<configuration>

    <!--指定HDFS的数量-->

    <property>

        <name>dfs.replication</name>

        <value>3</value>

    </property>

    <!--secondary namenode 所在主机的IP和端口-->

    <property>

        <name>dfs.namenode.secondary.http-address</name>

        <value>yangjian01:50090</value>

    </property>

</configuration>

hadoop的安装与配置详细过程,hadoop,linux,运维

7.5 修改mapred-site.xml文件(命令:vi mapred-site.xml)

7.5.1复制模板文件(命令:cp mapred-site.xml.template  mapred-site.xml

7.5.2编辑文件

<configuration>

    <!--指定MapReduce运行时的框架,这里指定在YARN上,默认在local-->

    <property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

    </property>

</configuration>

hadoop的安装与配置详细过程,hadoop,linux,运维

7.6 修改yarn-site.xml文件(命令:vi yarn-site.xml)

<configuration>

    <!--指定YARN集群的管理者(ResourceManager)的地址-->

    <property>

        <name>yarn.resourcemanager.hostname</name>

        <value>hadoop01</value>

    </property>

    <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

</configuration>

 hadoop的安装与配置详细过程,hadoop,linux,运维

7.7修改slaves文件

hadoop的安装与配置详细过程,hadoop,linux,运维

7.8将主节点中配置好的文件和hadoop目录copy给子节点

#tip:这里主节点为yangjian00,子节点为yangjian01、yangjian02、yangjian03

scp /etc/profile yangjian01:/etc/profile

scp /etc/profile yangjian02:/etc/profile

scp /etc/profile yangjian03:/etc/profile

scp -r /export/ yangjian01:/

scp -r /export/ yangjian02:/

scp -r /export/ yangjian03:/

7.9使所有子节点的配置文件

hadoop的安装与配置详细过程,hadoop,linux,运维

7.10 在主节点格式化文件系统(successfully formatted 格式化成功)

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

八、Hadoop集群测试

1.启动集群服务

1.1在主节点启动所有HDFS服务进程(命令:start-dfs.sh

1.2在主节点启动所有HDFS服务进程(命令:start-yarn.sh

2.打开window下的C:\Windows\System32\drivers\etc打开hosts文件,在文件末添加三行代码:

192.168.220.20 yangjian00

192.168.220.21 yangjian01

192.168.220.22 yangjian02

192.168.220.23 yangjian03

3.通过UI界面查看Hadoop运行状态,在Windows系统下,访问http://hadoop01:50070,查看HDFS集群状态

hadoop的安装与配置详细过程,hadoop,linux,运维

 hadoop的安装与配置详细过程,hadoop,linux,运维文章来源地址https://www.toymoban.com/news/detail-738508.html

到了这里,关于Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • Hadoop集群环境搭建(超详细)

    Hadoop集群环境搭建(超详细)

    Oracle Linux 7.4 JDK 1.8 Hadoop 2.7.4 1.实验准备三台机器分别为master,slave1,slave2 2.单击master机器桌面中的konsole图标 1.编辑/etc/hosts文件,出现如下界面 [Command 001]: 2.按i键,如下图 3.第一行前面添加#,如下图 4.按键ESC,按键:wq回车,保存退出。如下图 5.切换到slave1机器,重复1~4步骤 6

    2024年02月07日
    浏览(29)
  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(18)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(14)
  • Hadoop简介以及集群搭建详细过程

    Hadoop简介以及集群搭建详细过程

    hadoop加群包括两个集群:hdfs集群,yarn集群 两个集群逻辑上分离,通常物理上在一起 两个集群都是标准的主从架构集群 逻辑上分离:两个集群相互之间没有依赖,互不影响 物理上在一起:某些角色今晚往往部署在同一台物理服务器上 MapReduce集群呢? MapReduce是计算框架、代

    2024年02月16日
    浏览(10)
  • 基于Hadoop搭建Flink集群详细步骤

    基于Hadoop搭建Flink集群详细步骤

    目录 1.xftp上传flink压缩包至hadoop102的/opt/software/目录下 2.解压flink压缩包至/opt/module/目录下 3. 配置flink-conf.yaml 4.配置masters 5.配置workers 6.配置环境变量my_env.sh 7.重启环境变量 8.分发/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh 9.另外两台重启环境变量 10.开启hadoop集群和flink集群 11.浏

    2024年02月09日
    浏览(14)
  • Hadoop 3.2.4 集群搭建详细图文教程

    Hadoop 3.2.4 集群搭建详细图文教程

    目录 一、集群简介 二、Hadoop 集群部署方式  三、集群安装 3.1 集群角色规划  3.2 服务器基础环境准备  3.2.1 环境初始化  3.2.2 ssh 免密登录(在 hadoop01 上执行) 3.2.3 各个节点上安装 JDK 1.8 环境 3.3 安装 Hadoop 3.4 Hadoop 安装包目录结构 ​3.5 编辑 Hadoop 配置文件  3.5.1 hado

    2024年02月09日
    浏览(24)
  • Hadoop集群环境配置搭建

    Hadoop集群环境配置搭建

    Hadoop最早诞生于Cutting于1998年左右开发的一个全文文本搜索引擎 Lucene,这个搜索引擎在2001年成为Apache基金会的一个子项目,也是 ElasticSearch等重要搜索引擎的底层基础。 项目官方:https://hadoop.apache.org/ 首先准备三台Linux服务器,预装CentOS7。三台服务器之间需要网络互通。本地

    2024年02月03日
    浏览(13)
  • 大数据Hadoop集群之超级详细的HBase搭建

    大数据Hadoop集群之超级详细的HBase搭建

    Hbase是基于Hadoop集群之上来搭建的 Hadoop有一些局限性: 做一些批量的数据处理,吞吐量比较高,但是它对随机查询、实时操作性能是不行的 HBase是NoSQL数据库的一种,它跟传统的RDBMS有很大的差别 不支持JOIN的,摒弃了关系型模型,而且在HBase中只有一种数据类型:byte[] HBase可

    2023年04月13日
    浏览(14)
  • Hadoop高可靠集群搭建步骤(手把手教学)【超级详细】

    Hadoop高可靠集群搭建步骤(手把手教学)【超级详细】

    Hadoop高可靠集群搭建步骤(手把手教学) 【超级详细】 一、用管理员身份运行虚拟机 二、创建新的虚拟机: 选择自定义→选择硬件兼容性:Workstation 15.x→选择稍后安装→选Linux(L)(选CentOS 7 64位)→编辑虚拟机名字并选择文件位置→处理器数量和内核数量均选1→选择虚拟机

    2024年02月02日
    浏览(14)
  • 搭建hadoop集群,从安装虚拟机开始直到hadoop成功搭建

    搭建hadoop集群,从安装虚拟机开始直到hadoop成功搭建

    搭建Hadoop集群   一、实验目的与要求 学习和掌握Hadoop的相关应用,首先必须得学会搭建Hadoop集群。本次实验将针对Hadoop集群的搭建内容进行演练。学会虚拟机的安装和克隆,Linux系统的网络配置和SSH配置,Hadoop集群的搭建和配置,Hadoop集群测试,熟悉Hadoop集群基本的操作。

    2023年04月08日
    浏览(11)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包