Hadoop学习1:概述、单体搭建、伪分布式搭建

这篇具有很好参考价值的文章主要介绍了Hadoop学习1:概述、单体搭建、伪分布式搭建。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

概述

Hadoop: 分布式系统基础架构

解决问题: 海量数据存储、海量数据的分析计算

官网:https://hadoop.apache.org/

HDFS(Hadoop Distributed File System): 分布式文件系统,用于存储数据

Hadoop的默认配置【core-site.xml】: https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/core-default.xml == 配置Hadoop集群中各个组件间共享属性和通用参数以实现更好的性能和可靠性 == hadoop目录\share\hadoop\common\hadoop-common-3.3.6.jar

Hadoop的默认配置【hdfs-site.xml】: https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml === 配置HDFS组件中各种参数以实现更好的性能和可靠性(如数据块大小、心跳间隔等)== hadoop目录\share\hadoop\hdfs\hadoop-hdfs-3.3.6.jar

Hadoop的默认配置【mapred-site.xml】: https://hadoop.apache.org/docs/r3.3.6/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml === 配置MapReduce任务执行过程进行参数调整、优化等操作 == hadoop目录\share\hadoop\mapreduce\hadoop-mapreduce-client-core-3.3.6.jar

Hadoop的默认配置【yarn-site.xml】: https://hadoop.apache.org/docs/r3.3.6/hadoop-yarn/hadoop-yarn-common/yarn-default.xml === 配置YARN资源管理器(ResourceManager)和节点管理器(NodeManager)的行为 == hadoop目录\share\hadoop\yarn\hadoop-yarn-common-3.3.6.jar

基础知识

Hadoop组件构成

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop配置文件

配置文件路径: hadoop目录/etc/hadoop

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

环境准备

配置

//修改主机名
//more /etc/sysconfig/network == 内容如下  //不同机器取不同的HOSTNAME,不要取成一样的
NETWORKING=yes
HOSTNAME=hadoop107  

//=======================

//固定IP地址 == 自行百度
ifconfig
more /etc/sysconfig/network-scripts/ifcfg-ens33 

//=======================
// 查看自定义主机名、ip的映射关系 ==  more /etc/hosts
ping 主机名

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop配置

下载

官网: https://hadoop.apache.org/releases.html

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

配置环境变量
//将压缩包解压到指定目录
mkdir  -p /opt/module/ &&  tar -zxvf hadoop-3.3.6.tar.gz -C /opt/module/


//进入解压后的软件目录
cd /opt/module/hadoop-3.3.6

//设置环境变量
vim /etc/profile

//此文件末尾添加下面四行内容
## Hadoop
export HADOOP_HOME=/opt/module/hadoop-3.3.6
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin



//使环境变量生效
source /etc/profile

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop运行模式

Standalone Operation(本地)

参考: https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/SingleCluster.html#Standalone_Operation

官方Demo

官方Demo,统计文件中某个正则规则的单词出现次数

# hadoop目录
cd /opt/module/hadoop-3.3.6

# 创建数据源文件 == 用于下面进行demo统计单词
mkdir input

# 复制一些普通的文件
cp etc/hadoop/*.xml input

# 统计input里面的源文件规则是'dfs[a-z.]+'的单词个数,并将结果输出到当前目录下的output目录下 == 输出目录不得提前创建,运行时提示会报错
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar grep input output 'dfs[a-z.]+'

# 查看统计结果
cat output/*
cat output/part-r-00000


# 显示出来的结果,跟grep查出来的一样

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

WordCount单词统计Demo
//创建数据目录
mkdir -p /opt/module/hadoop-3.3.6/input/wordCountData && cd /opt/module/hadoop-3.3.6/input/


//文件数据创建 = 用于demo测试
echo "cat apple banana" >> wordCountData/data1.txt
echo "dog" >> wordCountData/data1.txt
echo " elephant" >> wordCountData/data1.txt


echo "cat apple banana" >> wordCountData/data2.txt
echo "dog" >> wordCountData/data2.txt
echo " elephant queen" >> wordCountData/data2.txt


//查看数据内容
more wordCountData/data1.txt
more wordCountData/data2.txt


//开始统计wordCountData文件目录下的单词数
hadoop jar /opt/module/hadoop-3.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /opt/module/hadoop-3.3.6/input/wordCountData wordCountDataoutput

//查看统计结果
cd /opt/module/hadoop-3.3.6/input/wordCountDataoutput
cat ./*

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Pseudo-Distributed Operation(伪分布式模式)

参考: https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation

概述: 单节点的分布式系统(用于测试使用)

配置修改


核心配置文件修改: vim /opt/module/hadoop-3.3.6/etc/hadoop/core-site.xml

<configuration>


    <!-- 默认是本地文件协议 file: -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.19.107:9000</value>
    </property>


    <!-- 临时目录 默认/tmp/hadoop-${user.name}  -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/module/hadoop-3.3.6/tmp</value>
    </property>


</configuration>


核心配置文件修改: vim /opt/module/hadoop-3.3.6/etc/hadoop/hdfs-site.xml

<configuration>

    <!-- 集群设置为1, 默认3 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>

</configuration>
启动DFS【9870】
Hadoop-DFS数据清空格式化
hdfs namenode -format

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

启动DFS组件

注意: 启动过程中可能遇到非root用户、JAVA_HOME找不到的现象,导致启动失败,自行参考下面的问题解决

# 未启动hadoop时所系统所运行java程序
jps


# 启动hadoop相关的应用程序
sh /opt/module/hadoop-3.3.6/sbin/start-dfs.sh


# 查看启动hadoop的应用变化
jps

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

访问DFS前端页面(不同版本的Hadoop的NameNode端口有变)

浏览器NameNode前端页面: http://192.168.19.107:9870/

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

dfs命令使用(主要用来操作文件)

帮助文档: hdfs dfs --help

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

复制物理机文件中hadoop中
hdfs dfs -mkdir /test


hdfs dfs -put /opt/module/hadoop-3.3.6/input /test

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

文件展示以及读取文件内容
hdfs dfs -ls -R /

hdfs dfs -cat /test/input/core-site.xml

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

创建目录、文件
hdfs dfs -mkdir -p /test/linrc


hdfs dfs -touch /test/linrc/1.txt

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

使用mapreduce进行计算hadoop里面某个文件夹的内容
hdfs dfs -ls /test/input

# 对hadoop里面某个文件夹内容进行单词统计
hadoop jar /opt/module/hadoop-3.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /test/input/wordCountData /test/input/wordCountDataoutput2


hdfs dfs -ls /test/input


# 查看统计结果
hdfs dfs -cat /test/input/wordCountDataoutput2/*

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

启动Yarn组件【8088】
配置修改

强制指定Yarn的环境变量: /opt/module/hadoop-3.3.6/etc/hadoop/yarn-env.sh
Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

export JAVA_HOME=/www/server/jdk8/jdk1.8.0_202



yarn-site.xml添加如下两个配置 /opt/module/hadoop-3.3.6/etc/hadoop/yarn-site.sh

<configuration>

<!-- Site specific YARN configuration properties == https://hadoop.apache.org/docs/r3.3.6/hadoop-yarn/hadoop-yarn-common/yarn-default.xml -->

    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>


    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>192.168.19.107</value>
    </property>

    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HO
ME</value>
    </property>

    <!-- 查看任务日志时,防止其重定向localhost,导致页面打开失败 -->
    <property>
        <name>yarn.timeline-service.hostname</name>
        <value>192.168.19.107</value>
    </property>


</configuration>

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

启动
//非常重要,必须回到hadoop的目录里面进行启动,我也不知道为什么
cd /opt/module/hadoop-3.3.6

//不要使用 sh命令启动,否则报错,我也不知道为什么
./sbin/start-yarn.sh 

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

访问yarn前端页面

浏览器: http://ip:8088

yarn页面端口配置: https://hadoop.apache.org/docs/r3.3.6/hadoop-yarn/hadoop-yarn-common/yarn-default.xml的【yarn.resourcemanager.webapp.address】

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

运行计算dfs某个目录所有文件的单词数,yarn页面有运行记录

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

//单词计算开始
hadoop jar /opt/module/hadoop-3.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /test/input/wordCountData /test/input/wordCountDataoutput3

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

启动MapReduce组件
配置修改

强制指定mapred的环境变量: /opt/module/hadoop-3.3.6/etc/hadoop/mapred-env.sh
Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

export JAVA_HOME=/www/server/jdk8/jdk1.8.0_202


mapred-site.xml添加如下配置: /opt/module/hadoop-3.3.6/etc/hadoop/mapred-site.xml
Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

<configuration>


    <!-- The runtime framework for executing MapReduce jobs. Can be one of local, classic or yarn -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>


    <property>
        <name>mapreduce.application.classpath</name>
        <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
    </property>

    <!-- mr运行日志采集系统配置 -->
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>192.168.19.107:10020</value>
    </property>

    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>192.168.19.107:19888</value>
    </property>


</configuration>
启动日志采集系统

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

mapred --daemon start historyserver
查看任务日志

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

启动日志聚集(任务执行的具体详情上传到HDFS组件中)
未启动前

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

启动

注意: 如果yarn组件已经启动,修改yarn的配置需要重新启动,使得配置生效

#停止日志系统
mapred --daemon stop historyserver


#停止yarn组件
cd /opt/module/hadoop-3.3.6
./sbin/stop-yarn.sh 

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

yarn-site.xml添加如下配置 /opt/module/hadoop-3.3.6/etc/hadoop/yarn-site.sh
Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

<configuration>

<!-- Site specific YARN configuration properties == https://hadoop.apache.org/docs/r3.3.6/hadoop-yarn/hadoop-yarn-common/yarn-default.xml -->

    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>


    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>192.168.19.107</value>
    </property>

    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HO
ME</value>
    </property>


    <property>
        <name>yarn.timeline-service.hostname</name>
        <value>192.168.19.107</value>
    </property>


    <!-- 日志聚集启动 -->
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <!-- 日志聚集的日志保留的时间,单位秒 -->
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>2592000</value>
    </property>

</configuration>



#启动yarn组件
cd /opt/module/hadoop-3.3.6
./sbin/start-yarn.sh

#启动日志系统
mapred --daemon start historyserver

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo


# 重新运行一个任务
hadoop jar /opt/module/hadoop-3.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /test/input/wordCountData /test/input/wordCountDataoutput5

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo

Hadoop学习1:概述、单体搭建、伪分布式搭建,大数据,Hadoop,Linux,单体搭建,伪分布式搭建,学习,Standalone,Pseudo文章来源地址https://www.toymoban.com/news/detail-840262.html

到了这里,关于Hadoop学习1:概述、单体搭建、伪分布式搭建的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • HDFS Hadoop分布式文件存储系统整体概述

    HDFS Hadoop分布式文件存储系统整体概述

    整体概述举例: 包括机架 rack1、rack2 包括5个Datanode,一个Namenode( 主角色 )带领5个Datanode( 从角色 ),每一个rack中包含不同的block模块文件为 分块存储模式 。块与块之间通过replication进行 副本备份 ,进行冗余存储,Namenode对存储的 元数据进行记录 。该架构可以概括为一个 抽象

    2024年02月16日
    浏览(48)
  • 【数据网格架构】分布式数据网格作为集中式数据单体的解决方案

    【数据网格架构】分布式数据网格作为集中式数据单体的解决方案

    企业数据架构师不应构建大型集中式数据平台,而应创建分布式数据网格。 ThoughtWorks 的首席技术顾问 Zhamak Dehghani 在旧金山 QCon 的演讲和相关文章中表示,这种方法的改变需要范式转变。随着数据变得越来越普遍,传统的数据仓库和数据湖架构变得不堪重负,无法有效扩展

    2024年02月11日
    浏览(11)
  • 搭建伪分布式Hadoop

    搭建伪分布式Hadoop

    在独立模式下,所有程序都在单个JVM上执行,调试Hadoop集群的MapReduce程序也非常方便。一般情况下,该模式常用于学习或开发阶段进行调试程序。 在伪分布式模式下, Hadoop程序的守护进程都运行在一台节点上,该模式主要用于调试Hadoop分布式程序的代码,以及程序执行是否

    2024年02月06日
    浏览(11)
  • 搭建完全分布式Hadoop

    搭建完全分布式Hadoop

    登录三个虚拟机 执行命令: vim /etc/hosts 1、上传安装包 上传hadoop安装包 查看hadoop安装包 2、解压缩安装包 执行命令: tar -zxvf hadoop-3.3.4.tar.gz -C /usr/local 查看解压后的目录 3、配置环境变量 执行命令: vim /etc/profile 存盘退出,执行命令: source /etc/profile ,让配置生效 查看had

    2024年02月04日
    浏览(19)
  • Hadoop完全分布式搭建

    Hadoop完全分布式搭建

    1.下载VM 2.下载Centos镜像 3.下载hadoop 4.下载FinalShell 5.下载jdk文件  6.下载hive,数据仓库学习大数据专业的用的到     注:开启虚拟机把鼠标放入屏幕点击后消失,使用键盘上下键进行选择   注:点击之后,什么都不动,再点击完成(因为它自动帮我们分区了) 注:我们配置

    2024年02月04日
    浏览(14)
  • Hadoop分布式集群搭建

    Hadoop分布式集群搭建

    集群以三台电脑搭建,每台电脑创建一个UbuntuKylin虚拟机,集群以三台UbuntuKylin虚拟机为基础搭建,虚拟机主机名分别为hadoop101、hadoop111和hadoop121。IP地址分别为192.168.214.101、192.168.214.111和192.168.214.121。 主机名 IP地址: hadoop101 192.168.214.101 hadoop111 192.168.214.111 hadoop121 192.168.214

    2024年02月03日
    浏览(13)
  • Hadoop的完全分布式搭建

    Hadoop的完全分布式搭建

    主机名 Hadoop10 Hadoop11 Hadoop12 网络 192.168.10.10 192.168.10.11 192.168.10.12 用户 hadoop root hadoop root hadoop root HDFS NameNode DateNode DateNode Secondary NameNode DataNode YARN NodeManager NodeManager ResourceManager NodeManager 安装虚拟机系统,省略 第一步:网卡配置 使用 vi 编辑器编辑系统的网卡配置文件,配置以下

    2024年02月08日
    浏览(15)
  • HADOOP 伪分布式集群搭建

    HADOOP 伪分布式集群搭建

    由于笔者这里使用的是vmware 虚拟机 采用centos7 linux 操作系统进行搭建,所以一下示例均以centos7进行示例 1.  搭建vmware 虚拟机 (1)创建好虚拟机后采用linux ISO镜像文件启动安装centos7操作系统 (其 它方式也可以) (2)完成之后设置网络模式,笔者采用桥接模式进行设置  

    2024年02月01日
    浏览(10)
  • hadoop平台完全分布式搭建

    安装前准备 一、设置ssh免密登录 1.编辑hosts文件,添加主机名映射内容 vim  /etc/hosts 添加内容: 172.17.0.2      master 172.17.0.3      slave1 172.17.0.4      slave2 2.生成公钥和私钥 ssh-keygen –t rsa 然后按三次回车 3.复制公钥到其他容器(包括自己) ssh-copy-id master ssh-copy-id slav

    2024年03月17日
    浏览(15)
  • Hadoop 完全分布式集群搭建

    Hadoop 完全分布式集群搭建

    部署前可以先了解下 Hadoop运行模式及目录结构-CSDN博客 服务 hadoop102 hadoop103 hadoop104 NameNode √ DataNode √ √ √ Secondary NameNode √ ResourceManager √ NodeManager √ √ √ JobHistoryServer √ IPv4 192.168.88.102 192.168.88.103 192.168.88.104 NodeObject master worker1 worker2 最小化安装 Neokylin7.0 用于搭建 Had

    2024年02月04日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包