Linux修改hadoop配置文件及启动hadoop集群详细步骤

这篇具有很好参考价值的文章主要介绍了Linux修改hadoop配置文件及启动hadoop集群详细步骤。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一、配置Hadoop环境

1.查看Hadoop解压位置

2.配置环境变量

3.编辑环境变量

4.重启环境变量

5.查看Hadoop版本,查看成功就表示Hadoop安装成功了

二、修改配置文件

1.检查三台虚拟机:

2.切换到配置文件目录

3.修改 hadoop-env.sh 文件

4.修改 core-site.xml 文件

5.修改 mapred-site.xml 文件

6.修改 hdfs-site.xml 文件

7.修改 yarn-site.xml 文件

8.修改 workers 文件

三、给hadoop2、hadoop3分发文件

1.到存放hadoop的文件夹下

2.1.给hadoop2和hadoop3拷贝文件和环境变量

2.2.给hadoop2和hadoop3创建软连接

2.3.检查hadoop2和hadoop3是否拷贝成功

2.4.如果没有拷贝成功就将hadoop2和hadoop3的hadoop文件夹删除,然后在拷贝一次

四、修改脚本文件

1.切换到hadoop的sbin目录下

2.修改 start-dfs.sh 脚本文件

3.修改 stop-dfs.sh 脚本文件

4.修改 start-yarn.sh 脚本文件

5.修改 stop-yarn.sh 脚本文件

 五、启动hadoop集群

1.格式化HDFS

2.启动hadoop

3.启动yarn

4.查看进程

5.关闭防火墙

6.访问Hadoop的web网站

7.停止hadoop

8.停止yarn

9.启动hadoop和yarn遇到的问题

六、编辑启动和停止脚本文件

1.进入脚本文件目录

2.编写集群控制文件

3.给 hadoop.sh 授权

4.启动集群,查看进程

5.停止集群,查看进程

七、编辑同步执行命令脚本

1.编辑

2.给 xcall.sh 授权

3.执行脚本

4.脚本的另一种写法


一、配置Hadoop环境

1.查看Hadoop解压位置

pwd

在linux如何进入hadoop,Linux,linux,hadoop,运维

2.配置环境变量

vim /etc/profile

在linux如何进入hadoop,Linux,linux,hadoop,运维

3.编辑环境变量

“/opt/server/hadoop”填自己Hadoop的存放位置。

export HADOOP_HOME=/opt/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin

在linux如何进入hadoop,Linux,linux,hadoop,运维

4.重启环境变量

source /etc/profile

在linux如何进入hadoop,Linux,linux,hadoop,运维

5.查看Hadoop版本,查看成功就表示Hadoop安装成功了

hadoop version

在linux如何进入hadoop,Linux,linux,hadoop,运维

二、修改配置文件

1.检查三台虚拟机:

是否都安装了jdk和hadoop并且配置了环境变量,确保虚拟机之间都能互相ping通以及两两之间能够ssh免密登陆,都完成了网卡、主机名、hosts文件等配置。

ip地址 主机名 节点

192.168.147.200

hadoop 主节点

192.168.147.201

hadoop2 子节点

192.168.147.203

hadoop3 子节点

2.切换到配置文件目录

cd /opt/server/hadoop/etc/hadoop

在linux如何进入hadoop,Linux,linux,hadoop,运维

3.修改 hadoop-env.sh 文件

路径改成自己的jdk安装路径(vim命令用不了就用vi)

vim hadoop-env.sh

export JAVA_HOME=/opt/server/jdk

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

4.修改 core-site.xml 文件

vim core-site.xml

<configuration>
<property>
                      <name>fs.defaultFS</name>
                      <!-- 用于指定namenode地址在机器master上-->
                      <value>hdfs://hadoop:8020</value>
          </property>
                      <!-- 用于配置hadoop的数据目录-->
          <property>
                      <name>hadoop.tmp.dir</name>
                      <value>/opt/server/hadoop/data</value>
          </property>
</configuration>

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

5.修改 mapred-site.xml 文件

vim mapred-site.xml

<configuration>
<!-- 指定MapReduce运行时框架,这里指定在yarn上-->
       <property>
              <name>mapreduce.framework.name</name>
              <value>yarn</value>
       </property>
</configuration>

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

6.修改 hdfs-site.xml 文件

vim hdfs-site.xml

<configuration>
<!--指定HDFS副本的数量,不能超过机器节点数-->
              <property>
                            <name>dfs.replication</name>
                            <value>3</value>
              </property>
              <!-- 为secondary namenode配置所在的IP和端口-->
              <property>
                            <name>dfs.namenode.secondary.http-address</name>
                            <value>hadoop2:50090</value>
              </property>
</configuration>

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

7.修改 yarn-site.xml 文件

vim yarn-site.xml

<configuration>

           <!-- 指定yarn集群的管理者(resourcemanger)的地址-->
           <property>
                      <name>yarn.resourcemanager.hostname</name>
                      <value>hadoop</value>
           </property>
           <property>
                      <name>yarn.nodemanager.aux-services</name>
                      <value>mapreduce_shuffle</value>
           </property>

</configuration>

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

8.修改 workers 文件

vim workers

hadoop
hadoop2
hadoop3

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

三、给hadoop2、hadoop3分发文件

1.到存放hadoop的文件夹下

cd /opt/server/

在linux如何进入hadoop,Linux,linux,hadoop,运维

2.1.给hadoop2和hadoop3拷贝文件和环境变量

scp -r hadoop-3.2.4/ root@hadoop2:/opt/server/hadoop-3.2.4/
scp /etc/profile root@hadoop2:/etc/profile

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

2.2.给hadoop2和hadoop3创建软连接

ln -s hadoop-3.2.4/ hadoop

在linux如何进入hadoop,Linux,linux,hadoop,运维

2.3.检查hadoop2和hadoop3是否拷贝成功

hadoop的配置文件拷贝给了hadoop2和hadoop3,在hadoop2打开workers。

vim workers

在linux如何进入hadoop,Linux,linux,hadoop,运维

hadoop2的workers没被修改,说明没拷贝成功。 

在linux如何进入hadoop,Linux,linux,hadoop,运维

2.4.如果没有拷贝成功就将hadoop2和hadoop3的hadoop文件夹删除,然后在拷贝一次

rm -rf hadoop-3.2.4

 在linux如何进入hadoop,Linux,linux,hadoop,运维

 重复2.1的操作

四、修改脚本文件

1.切换到hadoop的sbin目录下

脚本文件都在sbin文件下。

cd /opt/server/hadoop/sbin

2.修改 start-dfs.sh 脚本文件

vim start-dfs.sh

HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

3.修改 stop-dfs.sh 脚本文件

vim stop-dfs.sh

HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

4.修改start-yarn.sh 脚本文件

vim start-yarn.sh

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

4.修改 start-yarn.sh 脚本文件

vim start-yarn.sh

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

5.修改 stop-yarn.sh 脚本文件

vim stop-yarn.sh

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

 五、启动hadoop集群

1.格式化HDFS

hadoop namenode -format
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

2.启动hadoop

启动hadoop和yarn一定要在sbin目录下。 

./start-dfs.sh

在linux如何进入hadoop,Linux,linux,hadoop,运维

3.启动yarn

./start-yarn.sh

在linux如何进入hadoop,Linux,linux,hadoop,运维

4.查看进程

jps

在linux如何进入hadoop,Linux,linux,hadoop,运维

5.关闭防火墙

#关闭
systemctl stop firewalld.service
#查看
systemctl status firewalld.service
#防火墙失效设置
systemctl disable firewalld.service

在linux如何进入hadoop,Linux,linux,hadoop,运维

6.访问Hadoop的web网站

 ip+端口

在linux如何进入hadoop,Linux,linux,hadoop,运维

7.停止hadoop

./stop-dfs.sh

在linux如何进入hadoop,Linux,linux,hadoop,运维

8.停止yarn

./stop-yarn.sh

第一次停止yarn可能会出现以下情况:

在linux如何进入hadoop,Linux,linux,hadoop,运维

再输入一次命令就好了 

在linux如何进入hadoop,Linux,linux,hadoop,运维

9.启动hadoop和yarn遇到的问题

ERROR: JAVA_HOME is not set and could not be found.

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

在linux如何进入hadoop,Linux,linux,hadoop,运维

出错的原因是2.3的hadoop配置文件没有成功拷贝给hadoop2和hadoop3,解决办法在2.4。

六、编辑启动和停止脚本文件

1.进入脚本文件目录

cd /opt/script/

如果没有script目录就新建一个。

mkdir script

在linux如何进入hadoop,Linux,linux,hadoop,运维

2.编写集群控制文件

vim hadoop.sh

#! /bin/bash
case $1 in
"start" ) {
/opt/server/hadoop/sbin/start-dfs.sh
/opt/server/hadoop/sbin/start-yarn.sh
};;
"stop") {
/opt/server/hadoop/sbin/stop-dfs.sh
/opt/server/hadoop/sbin/stop-yarn.sh
};;
esac
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

3.给 hadoop.sh 授权

chmod 777 hadoop.sh

在linux如何进入hadoop,Linux,linux,hadoop,运维

4.启动集群,查看进程

./hadoop.sh start

jps

查看hadoop进程 

在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

查看hadoop2进程 

在linux如何进入hadoop,Linux,linux,hadoop,运维

5.停止集群,查看进程

./hadoop.sh stop

jps
在linux如何进入hadoop,Linux,linux,hadoop,运维
查看hadoop进程
在linux如何进入hadoop,Linux,linux,hadoop,运维
查看hadoop2进程
在linux如何进入hadoop,Linux,linux,hadoop,运维

七、编辑同步执行命令脚本

1.编辑

vim xcall.sh


#! /bin/bash

params=$@
hosts=( hadoop hadoop2 hadoop3)
for host in ${hosts[@]}
do
    echo ============ $host: $params ============
    ssh $host "source /etc/profile;$params" 
done
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

2.给 xcall.sh 授权

chmod 777 xcall.sh
在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

3.执行脚本

查看进程和主机名 

./xcall.sh jps

./xcall.sh hostname

在linux如何进入hadoop,Linux,linux,hadoop,运维

4.脚本的另一种写法

如果主机名是 hadoop1、hadoop2、hadoop3 可以用以下写法:

#! /bin/bash

params=$@
for (( i=1 ; i<=3 ; i=$i+1)) ; do
     echo ============= hadoop$i $params =============
     ssh hadoop$i "source /etc/profile;$params"
done

在linux如何进入hadoop,Linux,linux,hadoop,运维

但是 hadoop、hadoop2、hadoop3用这种写法会出现以下结果:文章来源地址https://www.toymoban.com/news/detail-773097.html

在linux如何进入hadoop,Linux,linux,hadoop,运维
在linux如何进入hadoop,Linux,linux,hadoop,运维

到了这里,关于Linux修改hadoop配置文件及启动hadoop集群详细步骤的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 格式化文件系统和启动和关闭Hadoop集群

    初次启动HDFS集群时,须对主节点进行格式化处理,执行:hdfs   namenode  -format 格式化成功信息: 1. 一起启动hdfs和yarn服务 ,执行:start-all.sh 1. 单独启动hdfs服务 ,执行:start-dfs.sh 题外:关于jdk版本太高,启动hdfs和yarn会有警报这种,可以降低jdk版本,进行解决 具体可以参照

    2024年02月07日
    浏览(15)
  • 从零开始在 Linux 上搭建 Hadoop 平台:一个详细的教程和必备配置文件

    在信息时代,大数据处理是企业发展必不可少的一部分。Hadoop 是一种分布式计算平台,能够高效地处理大数据集。然而,搭建 Hadoop 集群可以相当复杂,需要正确配置和调整多个组件。本文将向您展示如何从零开始在 Linux 上搭建 Hadoop,以及如何配置 Hadoop 的必备文件。 选择

    2024年02月08日
    浏览(9)
  • linux安装hadoop详细步骤

    以下是在Linux系统上安装Hadoop的详细步骤: 下载Hadoop文件 在Hadoop官方网站上下载最新的稳定版本的Hadoop文件。下载地址:https://hadoop.apache.org/releases.html 解压Hadoop文件 打开终端,使用以下命令将下载的Hadoop文件解压到指定目录: 配置环境变量 打开终端,使用以下命令打开配

    2024年01月19日
    浏览(17)
  • Redis的简介,安装(Linux、Windows),配置文件的修改---详细介绍

    Redis是一个基于 内存 的key-value结构数据库。 基于内存存储,读写性能高 适合存储热点数据(热点商品、资讯、新闻) 企业应用广泛 1.1、Redis简介 The open source, in-memory data store used by millions of developers as a database, cache, streaming engine, and message broker.(开源内存数据存储,被数百万

    2024年02月13日
    浏览(15)
  • Hadoop HA-hadoop完全分布式高可用集群配置、高可用集群启动方式、master/slave1/slave2配置

             本文章使用root用户完成相关配置与启动、这里分为master、slave1、slave2进行配置         一、将hadoop解压至需要的目录下          二、配置hadoop-env.sh启动文件         三、配置hdfs-site.xml文件         四、配置core-site.xml文件         五、配置yarn-site.x

    2024年02月06日
    浏览(20)
  • Hadoop之Hive的安装配置(详细步骤)

    配置前准备 下载apache-hive-2.1.1-bin.tar.gz安装包并上传到XShell 在XShell上解压安装包 输入解压命令: 配置  1、配置环境变量 在文件末尾增加如下内容: 使环境变量生效 进入 cd /home/ZQ/apache-hive-2.1.1-bin/conf/ 2、配置hive-env.sh  如果有hive-env.sh.template文件则输入下面的命令将 hive-

    2024年02月04日
    浏览(13)
  • 七、Hadoop系统应用之搭建Hadoop高可用集群(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

    Hadoop集群搭建前安装准备参考: 一、Hadoop系统应用之安装准备(一)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7) 一、Hadoop系统应用之安装准备(二)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7) Hadoop集群搭建过程参考: 二、Hadoop系统应

    2024年02月02日
    浏览(17)
  • Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程

    实训课题 Hadoop集群安装 配置 和 详细 搭建 过程 实验步骤 : 一、虚拟机的安装部署 二、Linux系统安装部署 1.环境准备 2.系统安装 三、Centos系统安装 四、静态网络配置 五、虚拟机完整克隆配置 六、配置hosts文件和ssh免密登录 七、Hadoop集群配置 八、Hadoop集群测试 虚拟机的安装

    2024年02月06日
    浏览(15)
  • linux上面hadoop配置集群

    要在Linux上配置Hadoop集群,需要按照以下步骤进行操作: 安装Java Development Kit (JDK):首先,确保您的Linux系统上已经安装了JDK。可以通过运行以下命令来检查是否已经安装了JDK: 如果返回了Java的版本信息,则表示已经安装了JDK。如果没有安装,请根据您使用的Linux发行版,安

    2024年01月18日
    浏览(20)
  • hadoop修改配置文件和环境变量

    在我们安装好hadoop之后,需要对其内部的一些配置文件进行修改,以满足特定的需求和环境,确保Hadoop集群的正常运行和数据的正确处理。 我们要修改的就是主要的自定义配置文件。 进入配置文件所在路径,它们位于 $HADOOP_HOME/etc/hadoop 这个路径下,在我这就是 /export/server

    2024年02月07日
    浏览(12)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包