Hadoop伪分布式搭建

发布时间:2018-11-16  栏目:LINUX  评论:0 Comments

搭建伪分布式环境,只待同高Linux服务器,一般开发测试用

  1. 下载jdk

于单机上套分布式环境

1. 更改hadoop-env.sh

vim hadoop-env.sh

找到export JAVA_HOME,更改为投机的JAVA_HOME目录

export JAVA_HOME=/usr/local/java/jdk

HDFS:主节点 NameNode

2. 更改core-site.xml

vim core-site.xml

找到并转移以下内容

<configuration>

        <property>

                <name>fs.defaultFS</name>

               <value>hdfs://hadoop:9000</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

               <value>/home/hadoop/hadoopdata</value>

        </property>

</configuration>

            从节点 DataNode   SecondaryNameNode

3. 更改hdfs-site.xml

找到并转以下内容

<configuration>

        <property>

               <name>dfs.namenode.name.dir</name>

             
 <value>/home/hadoop/hadoopdata/tmp/dfs/name</value>

        </property>

        <property>

                 <name>dfs.datanode.data.dir/<name>

               
 <value>/home/hadoop/hadoopdata/tmp/dfs/data</value>

        </property>

       <property>

               <name>dfs.replication/name>

              <value>1/value>

       </property>

</configuration>

yarn: 主节点 ResourceManager  

4. 更改mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

找到并更改

<configuration>

         <property>

                   <name>mapreduce.framework.name</name>

                   <value>yarn</value>

        </property>

</configuration>

           从节点 NodeManager

5. 更改yarn-site.xml

vim yarn-site.xml

<configuration>

         <property>

                   
 <name>yarn.nodemanager.aux-services</name>

                   <value>mapreduce_shuffle</value>

        <property>

                 
<name>yarn.resourcemanager.hostname</name>

                   <value>hadoop</value>

          </property>

           </property>

</configuration>

 

6. 初始化namenode

hdfs namenode -format

tools和training是起定义目录

工具:SecureCRT6.5.0

  1. 用Hadoop包上传到Linux服务器上,如~/tools目录下图片 1

     

  2. 解压该滑坡包及~/training目录下           
      图片 2

     

  3. 在~/.bash_profile里设置环境变量,增加红色框内容。 vi
    ~/.bash_profile,按 【i】 进去编辑模式,按【esc】退出编辑模式,输入冒号:wq回车保存
     图片 3

     

  4. 执行source ~/.bash_profile  使环境变量生效

  5. 部署jdk路径,找到Hadoop的布局文件hadoop-env.sh,vi 
    /root/training/hadoop-2.7.3/etc/hadoop/hadoop-env.sh回车,加入红色部分,JAVA_HOME就是jdk的路径图片 4

     

  6. 继而安排hdfs-site.xml,加入红色框内容

    <!–配置数据块的冗余度–>
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>

    图片 5

     

  7. 配备core-site.xml,加入如下内容

    <!–配置NameNode地址–>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://本机IP:9000</value>
    </property>

    <!–配置数据在Linux上保留之职务–>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/root/training/hadoop-2.7.3/tmp</value>
    </property>

    图片 6

     

  8. 部署mapred-site.xml,添加如下

    <!–MR运行的框架–>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>                                         
     图片 7

     

  9. 配置yarn-site.xml,添加如下

    <!–yarn的主节点 RM–>
    <property>
    <name>yarn.resouremanager.hostname</name>
    <value>IP地址</value>
    </property>

    <!–NodeManager运行MR程序方法–>
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>                               
     图片 8

     

  10. 开行start-all.sh,表示启动所有服务,但发现如输入四潮密码图片 9

     

  11. 已所有服务,执行stop-all.sh,也要是输入四不善密码,从起步到已服务,一共输入8蹩脚密码。如果开行多尊服务器,那怎么不是累累密码图片 10

    伪分布式环境及这即搭建配置好。基于输入多次密码,可以安排免密登录,下一样节省用见面教

留下评论

网站地图xml地图