spark yarn集群搭建(二:hadoop集群搭建)

spark yarn集群搭建(一:準備工作)

Master節(jié)點配置:
  1. 進入/datamgt目錄下下載二進制包hadoop-2.7.3.tar.gz,解壓并重命名
    tar -zxvf hadoop-2.7.6.tar.gz && mv hadoop-2.7.6 hadoop
  2. 修改全局變量/etc/profile
    • 修改/etc/profile,增加如下內(nèi)容:
      export HADOOP_HOME=/datamgt/hadoop/
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      
    • 修改完成后執(zhí)行:
      source /etc/profile
  3. 修改hadoop配置文件
    • 修改JAVA_HOME
      vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh
      #將export JAVA_HOME=${JAVA_HOME}修改為:
      export JAVA_HOME=/usr/java/jdk1.8.0_65
      
    • 修改slaves
      vim $HADOOP_HOME/etc/hadoop/slaves
      #將原來的localhost刪除,改成如下內(nèi)容:
      slave1
      slave2
      
    • 修改$HADOOP_HOME/etc/hadoop/core-site.xml
      <configuration>
            <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>
            </property>
            <property>
                <name>io.file.buffer.size</name>
                <value>131072</value>
           </property>
           <property>
              <name>hadoop.tmp.dir</name>
              <value>/datamgt/hadoop/tmp</value>
           </property>
      </configuration>
      
    • 修改$HADOOP_HOME/etc/hadoop/hdfs-site.xml
      <configuration>
          <property>
             <name>dfs.namenode.secondary.http-address</name>
            <value>master:50090</value>
         </property>
         <property>
             <name>dfs.replication</name>
             <value>2</value>
         </property>
         <property>
             <name>dfs.namenode.name.dir</name>
              <value>file:/datamgt/hadoop/hdfs/name</value>
          </property>
          <property>
               <name>dfs.datanode.data.dir</name>
               <value>file:/datamgt/hadoop/hdfs/data</value>
          </property>
      </configuration>
      
    • 修改$HADOOP_HOME/etc/hadoop/yarn-site.xml
      <configuration>
          <property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
          </property>
          <property>
              <name>yarn.resourcemanager.address</name>
              <value>master:8032</value>
          </property>
          <property>
              <name>yarn.resourcemanager.scheduler.address</name>
              <value>master:8030</value>
          </property>
          <property>
              <name>yarn.resourcemanager.resource-tracker.address</name>
              <value>master:8031</value>
          </property>
          <property>
              <name>yarn.resourcemanager.admin.address</name>
              <value>master:8033</value>
          </property>
          <property>
              <name>yarn.resourcemanager.webapp.address</name>
              <value>master:8088</value>
          </property>
      </configuration>
      
    • 修改$HADOOP_HOME/etc/hadoop/mapred-site.xml
      #先復制mapred-site.xml.template,生成mapred-site.xml后進行修改
       <configuration>
           <property>
               <name>mapreduce.framework.name</name>
               <value>yarn</value>
           </property>
           <property>
               <name>mapreduce.jobhistory.address</name>
               <value>master:10020</value>
           </property>
           <property>
               <name>mapreduce.jobhistory.webapp.address</name>
               <value>master:19888</value>
           </property>
       </configuration>
      
salve節(jié)點配置:
  1. 復制master節(jié)點的hadoop文件夾到slave1和slave2上:
    scp -r /datamgt/hadoop root@slave1:/datamgt && scp -r /datamgt/hadoop root@slave2:/datamgt
  2. 修改slave1、slave2節(jié)點下的/etc/profile文件,過程與master一致
啟動集群:
  1. master節(jié)點啟動之前格式化一下namenode
    hadoop namenode -format
  2. master節(jié)點執(zhí)行
    /datamgt/hadoop/sbin/start-all.sh
查看集群是否啟動成功:
  • 執(zhí)行jps查看java進程
    1. master顯示
    SecondaryNameNode 
    ResourceManager 
    NameNode
    
    1. slave顯示
    NodeManager
    DataNode
    
  • 瀏覽器驗證相應web頁面是否可訪問
    master:50070
    master:8088
    
遇到的問題
  1. 50070不可訪問:
    一開始以為是端口監(jiān)聽的問題:Hadoop HDFS的namenode WEB訪問50070端口打不開解決方法
    后來查看日志(hadoop/logs/namenode日志)發(fā)現(xiàn)是因為本機9000端口被占用導致hadoop的namenode服務啟動失敗

spark yarn集群搭建(三:spark集群搭建)

最后編輯于
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

  • 一、系統(tǒng)參數(shù)配置優(yōu)化 1、系統(tǒng)內(nèi)核參數(shù)優(yōu)化配置 修改文件/etc/sysctl.conf,添加如下配置,然后執(zhí)行s...
    張偉科閱讀 3,923評論 0 14
  • 看到題目有沒有一種高大上的感覺?毛線,當前是個人、是個公司都在說自己搞大數(shù)據(jù),每天沒有幾個PB的數(shù)據(jù)入庫,每天沒有...
    丁小晶的晶小丁閱讀 4,647評論 0 50
  • --------"道路是曲折的,前途是光明的。"最近又涉及到了hadoop以及spark的安裝,之前課題設計中有要...
    九七學姐閱讀 3,226評論 3 5
  • 1 目的將hadoop 2.7.1 安裝到 166、167、168 三臺機器上2 提供環(huán)境練習環(huán)境192.168....
    灼灼2015閱讀 3,633評論 4 40
  • 最近在學習大數(shù)據(jù)技術,朋友叫我直接學習Spark,英雄不問出處,菜鳥不問對錯,于是我就開始了Spark學習。 為什...
    Plokmijn閱讀 26,848評論 6 26

友情鏈接更多精彩內(nèi)容