温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《便宜云服务器用户服务条款》

大数据之一:Hadoop安装

发布时间:2020-08-02 12:19:49 来源:网络 阅读:1776 作者:wx5d66921cb1eb1 栏目:大数据

一、安装Hadoop

1.先解压hadoop到相关的文件夹中

大数据之一:Hadoop安装

2.进入到解压好的文件夹以后,对相关文件进行修改

大数据之一:Hadoop安装

大数据之一:Hadoop安装

3.配置hadoop-env.sh

vi hadoop-env.sh:
export= JAVA_HOME=/opt/inst/jdk181

大数据之一:Hadoop安装

4.配置core-site.xml

vi core-site.xml
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://bigdata:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/hadoopdata</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.users</name>
                <value>*</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.groups</name>
                <value>*</value>
        </property>

大数据之一:Hadoop安装

大数据之一:Hadoop安装

5.配置hdfs-site.xml

vi hdfs-site.xml
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>

大数据之一:Hadoop安装

6.配置cp mapred-site.xml.template mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

大数据之一:Hadoop安装

7.vi mapred-site.xml

        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>

大数据之一:Hadoop安装

8.vi yarn-site.xml

vi 

大数据之一:Hadoop安装

9.vi /etc/profile

export HADOOP_HOME=/opt/bigdata/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME

大数据之一:Hadoop安装

10.更新并格式化

source  /etc/profile
hdfs namenode -format

大数据之一:Hadoop安装

11.启动

start-all.sh

大数据之一:Hadoop安装

jps
#查看进程

大数据之一:Hadoop安装

大数据之一:Hadoop安装

12.把linux导入到hadoop中

hdfs dfs -put /opt/a.txt  /cm/
hdfs dfs -ls /cm

大数据之一:Hadoop安装

Hadoop理解

三大核心

1.HDFS: Hadoop Distribute File System 分布式文件系统

? NameNode:主节点,目录

? DataNode:从节点,数据

? SecondaryNameNode:主节点的备份

2.YARN:Yet Another Resource Negotiator 资源管理调度系统

? 调度的是内存的资源和CPU的算力

? 通过ResourceManager(只有一个) 来调度

? ResourceManager主要作用:

? 1.处理客户端请求

? 2.监控NodeManager

? 3.启动或监控ApplicationMaster()

? 4.资源的分配或调度

? NodeManager(多个)

? NodeManager主要作用:

? 1.管理单个节点上的资源

? 2.处理来自ResourceManager的命令

? 3.处理来自ApplicationMaster的命令

3.MapReduce:分布式运算框架

? 运算的

大数据之一:Hadoop安装

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI

http://www.vxiaotou.com