精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Hadoop2.6.0自動化部署腳本(一)

運維 自動化 Hadoop
最近自己寫了一個Hadoop自動化部署腳本,包括Hadoop集群自動化部署腳本和Hadoop增加單節點自動化部署腳本。需要快速部署Hadoop集群的童鞋可以使用該腳本。這些腳本我在用5臺虛擬機進行了測試,如果在使用中還有bug,歡迎指出。本文主要介紹Hadoop集群自動化部署腳本,安裝的Hadoop版本為2.6.0。

1 概述

最近自己寫了一個Hadoop自動化部署腳本,包括Hadoop集群自動化部署腳本和Hadoop增加單節點自動化部署腳本。需要快速部署Hadoop集群的童鞋可以使用該腳本。這些腳本我在用5臺虛擬機進行了測試,如果在使用中還有bug,歡迎指出。本文主要介紹Hadoop集群自動化部署腳本,安裝的Hadoop版本為2.6.0。

2 依賴

安裝Hadoop2.6.0集群需要依賴JDK和Zookeeper。本文安裝的JDK版本為jdk-7u60-linux-x64,Zookeeper版本為zookeeper-3.4.6。

3 各文件及配置說明

該部署腳本由兩部分構成:root用戶下執行的腳本和Hadoop啟動用戶下執行的腳本。這些腳本都只需要在一臺服務器上執行即可,執行腳本的服務器作為Hadoop的Master服務器。下面分別進行說明。

3.1 root腳本說明

root腳本的目錄結構如下:

  • conf — 配置文件目錄
    • init.conf
  • expect — expect腳本目錄
    • password.expect
    • scp.expect
    • otherInstall.expect
  • file — 安裝文件目錄
    • hadoop-2.6.0.tar.gz
    • jdk-7u60-linux-x64.tar.gz
    • zookeeper-3.4.6.tar.gz
  • installRoot.sh — 腳本執行文件

3.1.1 conf目錄

該目錄下的init.conf文件為root執行腳本使用的配置文件,在執行腳本之前需要對該配置文件進行修改。文件內容如下:

  1. #jdk file and version 
  2. JDK_FILE_TAR=jdk-7u60-linux-x64.tar.gz 
  3.  
  4. #jdk unpack name 
  5. JDK_FILE=jdk1.7.0_60 
  6.  
  7. #java home 
  8. JAVAHOME=/usr/java 
  9.  
  10. #Whether install the package for dependence,0 means no,1 means yes 
  11. IF_INSTALL_PACKAGE=1 
  12.  
  13. #host conf 
  14. ALLHOST="hadoop1master hadoop1masterha hadoop1slave1 hadoop1slave2 hadoop1slave3" 
  15. ALLIP="192.168.0.180 192.168.0.184 192.168.0.181 192.168.0.182 192.168.0.183" 
  16.  
  17. #zookeeper conf 
  18. ZOOKEEPER_TAR=zookeeper-3.4.6.tar.gz 
  19. ZOOKEEPERHOME=/usr/local/zookeeper-3.4.6 
  20. SLAVELIST="hadoop1slave1 hadoop1slave2 hadoop1slave3"  
  21.  
  22. #hadoop conf 
  23. HADOOP_TAR=hadoop-2.6.0.tar.gz 
  24. HADOOPHOME=/usr/local/hadoop-2.6.0 
  25. HADOOP_USER=hadoop2 
  26. HADOOP_PASSWORD=hadoop2 
  27.  
  28. #root conf: $MASTER_HA $SLAVE1 $SLAVE2 $SLAVE3 
  29. ROOT_PASSWORD="hadoop hadoop hadoop hadoop"  

下面是個別參數的解釋及注意事項:

  1. ALLHOST為Hadoop集群各個服務器的hostname,使用空格分隔;ALLIP為Hadoop集群各個服務器的ip地址,使用空格分隔。要求ALLHOST和ALLIP要一一對應。
  2. SLAVELIST為zookeeper集群部署的服務器的hostname。
  3. ROOT_PASSWORD為除了Master服務器以外的其他服務器root用戶的密碼,使用逗號隔開。(在實際情況下,可能各個服務器的root密碼并不相同。)

3.1.2 expect目錄

該目錄下包含password.expect、scp.expect、otherInstall.expect三個文件。password.expect用來設置hadoop啟動用戶的密碼;scp.expect用來遠程傳輸文件;otherInstall.expect用來遠程執行其他服務器上的installRoot.sh。這三個文件都在installRoot.sh中被調用。

password.expect文件內容如下:

  1. #!/usr/bin/expect -f 
  2. set user [lindex $argv 0] 
  3. set password [lindex $argv 1] 
  4. spawn passwd $user 
  5. expect "New password:" 
  6. send "$password\r" 
  7. expect "Retype new password:" 
  8. send "$password\r" 
  9. expect eof  

其中argv 0和argv 1都是在installRoot.sh腳本中進行傳值的。其他兩個文件argv *也是這樣傳值的。

scp.expect文件內容如下:

  1. #!/usr/bin/expect -f 
  2. set dir, host, userpassword 
  3. set dir [lindex $argv 0] 
  4. set host [lindex $argv 1] 
  5. set user [lindex $argv 2] 
  6. set password [lindex $argv 3] 
  7. set timeout -1 
  8. spawn scp -r $dir $user@$host:/root/ 
  9. expect { 
  10.     "(yes/no)?" 
  11.     { 
  12.         send "yes\n" 
  13.         expect "*assword:" { send "$password\n"
  14.     } 
  15.     "*assword:" 
  16.     { 
  17.         send "$password\n" 
  18.     } 
  19. expect eof  

otherInstall.expect文件內容如下:

  1. #!/usr/bin/expect -f 
  2. set dir, host, userpassword 
  3. set dir [lindex $argv 0] 
  4. set name [lindex $argv 1] 
  5. set host [lindex $argv 2] 
  6. set user [lindex $argv 3] 
  7. set password [lindex $argv 4] 
  8. set timeout -1 
  9. spawn ssh -q $user@$host "$dir/$name" 
  10. expect { 
  11.     "(yes/no)?" 
  12.     { 
  13.         send "yes\n" 
  14.         expect "*assword:" { send "$password\n"
  15.     } 
  16.     "*assword:" 
  17.     { 
  18.         send "$password\n" 
  19.     } 
  20. expect eof  

3.1.3 file目錄

這里就是安裝Hadoop集群及其依賴所需的安裝包。

3.1.4 installRoot.sh腳本

該腳本是在root用戶下需要執行的腳本,文件內容如下:

  1. #!/bin/bash 
  2.  
  3. if [ $USER != "root" ]; then 
  4.     echo "[ERROR]:Must run as root";  exit 1 
  5. fi 
  6. # Get absolute path and name of this shell 
  7. readonly PROGDIR=$(readlink -m $(dirname $0)) 
  8. readonly PROGNAME=$(basename $0) 
  9. hostname=`hostname` 
  10.  
  11. source /etc/profile 
  12. # import init.conf 
  13. source $PROGDIR/conf/init.conf 
  14. echo "install start..." 
  15. # install package for dependence 
  16. if [ $IF_INSTALL_PACKAGE -eq 1 ]; then 
  17.     yum -y install expect >/dev/null 2>&1 
  18.     echo "expect install successful." 
  19.     # yum install openssh-clients #scp 
  20. fi 
  21.  
  22. #stop iptables or open ports, now stop iptables 
  23. service iptables stop 
  24. chkconfig iptables off 
  25. FF_INFO=`service iptables status` 
  26. if [ -n "`echo $FF_INFO | grep "Firewall is not running"`" ]; then 
  27.     echo "Firewall is already stop." 
  28. else 
  29.     echo "[ERROR]:Failed to shut down the firewall.Exit shell." 
  30.     exit 1 
  31. fi 
  32. #stop selinux 
  33. setenforce 0 
  34. SL_INFO=`getenforce` 
  35. if [ $SL_INFO == "Permissive" -o $SL_INFO == "disabled" ]; then 
  36.     echo "selinux is already stop." 
  37. else     
  38.     echo "[ERROR]:Failed to shut down the selinux. Exit shell." 
  39.     exit 1 
  40. fi 
  41.  
  42. #host config 
  43. hostArr=( $ALLHOST ) 
  44. IpArr=( $ALLIP ) 
  45. for (( i=0; i <= ${#hostArr[@]}; i++ )) 
  46.     if [ -z "`grep "${hostArr[i]}" /etc/hosts`" -o -z "`grep "${IpArr[i]}" /etc/hosts`" ]; then 
  47.         echo "${IpArr[i]} ${hostArr[i]}" >> /etc/hosts 
  48.     fi 
  49.  
  50. #user config 
  51. groupadd $HADOOP_USER && useradd -g $HADOOP_USER $HADOOP_USER && $PROGDIR/expect/password.expect $HADOOP_USER $HADOOP_PASSWORD >/dev/null 2>&1 
  52.  
  53. check jdk 
  54. checkOpenJDK=`rpm -qa | grep java` 
  55. # already install openJDK ,uninstall 
  56. if [ -n "$checkOpenJDK" ]; then 
  57.     rpm -e --nodeps $checkOpenJDK 
  58.     echo "uninstall openJDK successful" 
  59. fi 
  60. # A way of exception handling. `java -version` perform error then perform after ||. 
  61. `java -version` || ( 
  62.     [ ! -d $JAVAHOME ] && ( mkdir $JAVAHOME ) 
  63.     tar -zxf $PROGDIR/file/$JDK_FILE_TAR -C $JAVAHOME 
  64.     echo "export JAVA_HOME=$JAVAHOME/$JDK_FILE" >> /etc/profile 
  65.     echo 'export JAVA_BIN=$JAVA_HOME/bin' >> /etc/profile 
  66.     echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile 
  67.     echo 'export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar' >> /etc/profile 
  68.     echo 'export JAVA_HOME JAVA_BIN PATH CLASSPATH' >> /etc/profile 
  69.     echo "sun jdk done" 
  70.  
  71. check zookeeper 
  72. slaveArr=( $SLAVELIST ) 
  73. if [[ "${slaveArr[@]}" =~ $hostname ]]; then 
  74.     `zkServer.sh status` || [ -d  $ZOOKEEPERHOME ] || ( 
  75.         tar -zxf $PROGDIR/file/$ZOOKEEPER_TAR -C /usr/local
  76.         chown -R $HADOOP_USER:$HADOOP_USER $ZOOKEEPERHOME 
  77.         echo "export ZOOKEEPER_HOME=$ZOOKEEPERHOME" >> /etc/profile 
  78.         echo 'PATH=$PATH:$ZOOKEEPER_HOME/bin' >> /etc/profile 
  79.         echo "zookeeper done" 
  80.     ) 
  81. fi 
  82.  
  83. check hadoop2 
  84. `hadoop version` || [ -d  $HADOOPHOME ] || ( 
  85.     tar -zxf $PROGDIR/file/$HADOOP_TAR -C /usr/local
  86.     chown -R $HADOOP_USER:$HADOOP_USER $HADOOPHOME 
  87.     echo "export HADOOP_HOME=$HADOOPHOME" >> /etc/profile 
  88.     echo 'PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile 
  89.     echo 'HADOOP_HOME_WARN_SUPPRESS=1' >> /etc/profile 
  90.     echo "hadoop2 done" 
  91. source /etc/profile 
  92.  
  93. #ssh config 
  94. sed -i "s/^#RSAAuthentication\ yes/RSAAuthentication\ yes/g" /etc/ssh/sshd_config 
  95. sed -i "s/^#PubkeyAuthentication\ yes/PubkeyAuthentication\ yes/g" /etc/ssh/sshd_config 
  96. sed -i "s/^#AuthorizedKeysFile/AuthorizedKeysFile/g" /etc/ssh/sshd_config 
  97. sed -i "s/^GSSAPIAuthentication\ yes/GSSAPIAuthentication\ no/g" /etc/ssh/sshd_config 
  98. sed -i "s/^#UseDNS\ yes/UseDNS\ no/g" /etc/ssh/sshd_config 
  99. service sshd restart 
  100.  
  101. # install other servers 
  102. rootPasswdArr=( $ROOT_PASSWORD ) 
  103. if [ $hostname == ${hostArr[0]} ]; then 
  104.     i=0 
  105.     for node in $ALLHOST; do 
  106.         if [ $hostname == $node ]; then 
  107.             echo "this server, do nothing" 
  108.         else 
  109.             # cope install dir to other server 
  110.             $PROGDIR/expect/scp.expect $PROGDIR $node $USER ${rootPasswdArr[$i]} 
  111.             $PROGDIR/expect/otherInstall.expect $PROGDIR $PROGNAME $node $USER ${rootPasswdArr[$i]} 
  112.             i=$(($i+1)) #i++ 
  113.             echo $node" install successful." 
  114.         fi 
  115.     done 
  116.     # Let the environment variables take effect 
  117.     su - root 
  118. fi  

這個腳本主要干了下面幾件事:

  1. 如果在配置文件中設置了IF_INSTALL_PACKAGE=1,則安裝expect,默認是安裝expect。如果服務器上已經有了expect,則可以設置IF_INSTALL_PACKAGE=0。
  2. 關閉防火墻,停止selinux。
  3. 將Hadoop集群的各個機器host及ip對應關系寫到/etc/hosts文件中。
  4. 新建Hadoop啟動用戶及用戶組。
  5. 安裝jdk、zookeeper、hadoop并設置環境變量。
  6. 修改ssh配置文件/etc/ssh/sshd_config。
  7. 如果判斷執行腳本的機器是Master機器,則拷貝本機的root腳本到其他機器上并執行。

注意:在執行該腳本之前,需要確保Hadoop集群安裝的各個服務器上能夠執行scp命令,如果不能執行,需要在各個服務器上安裝openssh-clients,執行腳本為:yum –y install openssh-clients。

3.2 hadoop腳本說明

hadoop腳本的目錄結構如下:

  • bin — 腳本目錄
    • config_hadoop.sh
    • config_ssh.sh
    • config_zookeeper.sh
    • ssh_nopassword.expect
    • start_all.sh
  • conf — 配置文件目錄
    • init.conf
  • template — 配置文件模板目錄
    • core-site.xml
    • hadoop-env.sh
    • hdfs-site.xml
    • mapred-site.xml
    • mountTable.xml
    • myid
    • slaves
    • yarn-env.sh
    • yarn-site.xml
    • zoo.cfg
  • installCluster.sh — 腳本執行文件

3.2.1 bin腳本目錄

該目錄中包含installCluster.sh腳本中調用的所有腳本,下面一一說明。

3.2.1.1 config_hadoop.sh

該腳本主要是創建Hadoop所需目錄,以及配置文件的配置,其中的參數均在init.conf中。

  1. #!/bin/bash 
  2.  
  3. # Get absolute path of this shell 
  4. readonly PROGDIR=$(readlink -m $(dirname $0)) 
  5. # import init.conf 
  6. source $PROGDIR/../conf/init.conf 
  7.  
  8. for node in $ALL; do 
  9.     # create dirs 
  10.     ssh -q $HADOOP_USER@$node " 
  11.         mkdir -p $HADOOPDIR_CONF/hadoop2/namedir 
  12.         mkdir -p $HADOOPDIR_CONF/hadoop2/datadir 
  13.         mkdir -p $HADOOPDIR_CONF/hadoop2/jndir 
  14.         mkdir -p $HADOOPDIR_CONF/hadoop2/tmp 
  15.         mkdir -p $HADOOPDIR_CONF/hadoop2/hadoopmrsys 
  16.         mkdir -p $HADOOPDIR_CONF/hadoop2/hadoopmrlocal 
  17.         mkdir -p $HADOOPDIR_CONF/hadoop2/nodemanagerlocal 
  18.         mkdir -p $HADOOPDIR_CONF/hadoop2/nodemanagerlogs 
  19.     " 
  20.     echo "$node create dir done." 
  21.     for conffile in $CONF_FILE; do 
  22.         # copy 
  23.         scp $PROGDIR/../template/$conffile $HADOOP_USER@$node:$HADOOPHOME/etc/hadoop 
  24.         # update 
  25.         ssh -q $HADOOP_USER@$node " 
  26.             sed -i 's%MASTER_HOST%${MASTER_HOST}%g' $HADOOPHOME/etc/hadoop/$conffile 
  27.             sed -i 's%MASTER_HA_HOST%${MASTER_HA_HOST}%g' $HADOOPHOME/etc/hadoop/$conffile 
  28.             sed -i 's%SLAVE1%${SLAVE1}%g' $HADOOPHOME/etc/hadoop/$conffile 
  29.             sed -i 's%SLAVE2%${SLAVE2}%g' $HADOOPHOME/etc/hadoop/$conffile 
  30.             sed -i 's%SLAVE3%${SLAVE3}%g' $HADOOPHOME/etc/hadoop/$conffile 
  31.             sed -i 's%HDFS_CLUSTER_NAME%${HDFS_CLUSTER_NAME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  32.             sed -i 's%VIRTUAL_PATH%${VIRTUAL_PATH}%g' $HADOOPHOME/etc/hadoop/$conffile 
  33.             sed -i 's%DFS_NAMESERVICES%${DFS_NAMESERVICES}%g' $HADOOPHOME/etc/hadoop/$conffile 
  34.             sed -i 's%NAMENODE1_NAME%${NAMENODE1_NAME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  35.             sed -i 's%NAMENODE2_NAME%${NAMENODE2_NAME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  36.             sed -i 's%NAMENODE_JOURNAL%${NAMENODE_JOURNAL}%g' $HADOOPHOME/etc/hadoop/$conffile 
  37.             sed -i 's%HADOOPDIR_CONF%${HADOOPDIR_CONF}%g' $HADOOPHOME/etc/hadoop/$conffile 
  38.             sed -i 's%ZOOKEEPER_ADDRESS%${ZOOKEEPER_ADDRESS}%g' $HADOOPHOME/etc/hadoop/$conffile 
  39.             sed -i 's%YARN1_NAME%${YARN1_NAME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  40.             sed -i 's%YARN2_NAME%${YARN2_NAME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  41.             sed -i 's%HADOOPHOME%${HADOOPHOME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  42.             sed -i 's%JAVAHOME%${JAVAHOME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  43.             # update yarn.resourcemanager.ha.id for yarn_ha 
  44.             if [ $conffile == 'yarn-site.xml' ]; then 
  45.                 if [ $node == $MASTER_HA_HOST ]; then 
  46.                     sed -i 's%YARN_ID%${YARN2_NAME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  47.                 else 
  48.                     sed -i 's%YARN_ID%${YARN1_NAME}%g' $HADOOPHOME/etc/hadoop/$conffile 
  49.                 fi 
  50.             fi 
  51.         " 
  52.     done 
  53.     echo "$node copy hadoop template done." 
  54. done  

3.2.1.2 config_ssh.sh和ssh_nopassword.expect

這兩個文件是配置ssh無密碼登錄的,ssh_nopassword.expect被config_ssh.sh調用。

config_ssh.sh文件如下:

  1. #!/bin/bash 
  2.  
  3. # Get absolute path of this shell 
  4. readonly PROGDIR=$(readlink -m $(dirname $0)) 
  5. # import init.conf 
  6. source $PROGDIR/../conf/init.conf 
  7. # Get hostname 
  8. HOSTNAME=`hostname` 
  9.  
  10. # Config ssh nopassword login 
  11. echo "Config ssh on master" 
  12. # If the directory "~/.ssh" is not exist, then execute mkdir and chmod 
  13. [ ! -d ~/.ssh ] && ( mkdir ~/.ssh ) && ( chmod 700 ~/.ssh ) 
  14. # If the file "~/.ssh/id_rsa.pub" is not exist, then execute ssh-keygen and chmod 
  15. [ ! -f ~/.ssh/id_rsa.pub ] && ( yes|ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa ) && ( chmod 600 ~/.ssh/id_rsa.pub ) 
  16.  
  17. echo "Config ssh nopassword for cluster" 
  18. For all node, including master and slaves 
  19. for node in $ALL; do 
  20.     # execute bin/ssh_nopassword.expect 
  21.     $PROGDIR/ssh_nopassword.expect $node $HADOOP_USER $HADOOP_PASSWORD $HADOOPDIR_CONF/.ssh/id_rsa.pub >/dev/null 2>&1 
  22.     echo "$node done." 
  23. done 
  24. echo "Config ssh successful."  

ssh_nopassword.expect文件如下:

  1. #!/usr/bin/expect -f 
  2.  
  3. set host [lindex $argv 0] 
  4. set user [lindex $argv 1] 
  5. set password [lindex $argv 2] 
  6. set dir [lindex $argv 3] 
  7. spawn ssh-copy-id -i $dir $user@$host 
  8. expect { 
  9.     yes/no   
  10.     {  
  11.         send "yes\r";exp_continue  
  12.     } 
  13.     -nocase "password:"  
  14.     {  
  15.         send "$password\r"  
  16.     } 
  17. expect eof  

3.2.1.3 config_zookeeper.sh

該文件主要是對zookeeper的配置,文件內容如下:

  1. #!/bin/bash 
  2.  
  3. # Get absolute path of this shell 
  4. readonly PROGDIR=$(readlink -m $(dirname $0)) 
  5. # import init.conf 
  6. source $PROGDIR/../conf/init.conf 
  7.  
  8. #update conf 
  9. sed -i "s%ZOOKEEPERHOME%${ZOOKEEPERHOME}%g" $PROGDIR/../template/zoo.cfg 
  10. sed -i "s%ZOOKEEPER_SLAVE1%${ZOOKEEPER_SLAVE1}%g" $PROGDIR/../template/zoo.cfg 
  11. sed -i "s%ZOOKEEPER_SLAVE2%${ZOOKEEPER_SLAVE2}%g" $PROGDIR/../template/zoo.cfg 
  12. sed -i "s%ZOOKEEPER_SLAVE3%${ZOOKEEPER_SLAVE3}%g" $PROGDIR/../template/zoo.cfg 
  13.  
  14. zookeeperArr=( "$ZOOKEEPER_SLAVE1" "$ZOOKEEPER_SLAVE2" "$ZOOKEEPER_SLAVE3" ) 
  15. myid=1 
  16. for node in ${zookeeperArr[@]}; do 
  17.     scp $PROGDIR/../template/zoo.cfg $HADOOP_USER@$node:$ZOOKEEPERHOME/conf 
  18.     echo $myid > $PROGDIR/../template/myid 
  19.     ssh -q $HADOOP_USER@$node " 
  20.         [ ! -d $ZOOKEEPERHOME/data ] && ( mkdir $ZOOKEEPERHOME/data ) 
  21.         [ ! -d $ZOOKEEPERHOME/log ] && ( mkdir $ZOOKEEPERHOME/log )         
  22.     " 
  23.     scp $PROGDIR/../template/myid $HADOOP_USER@$node:$ZOOKEEPERHOME/data 
  24.     myid=`expr $myid + 1` #i++ 
  25.     echo "$node copy zookeeper template done." 
  26. done 

3.2.1.4 start_all.sh

該腳本主要用來啟動zookeeper及Hadoop全部組件,文件內容如下:

  1. #!/bin/bash 
  2.  
  3. source /etc/profile 
  4. # Get absolute path of this shell 
  5. readonly PROGDIR=$(readlink -m $(dirname $0)) 
  6. # import init.conf 
  7. source $PROGDIR/../conf/init.conf 
  8.  
  9. # start zookeeper 
  10. zookeeperArr=( "$ZOOKEEPER_SLAVE1" "$ZOOKEEPER_SLAVE2" "$ZOOKEEPER_SLAVE3" ) 
  11. for znode in ${zookeeperArr[@]}; do 
  12.     ssh -q $HADOOP_USER@$znode " 
  13.         source /etc/profile 
  14.         $ZOOKEEPERHOME/bin/zkServer.sh start 
  15.     " 
  16.     echo "$znode zookeeper start done." 
  17. done 
  18.  
  19. # start journalnode 
  20. journalArr=( $JOURNALLIST ) 
  21. for jnode in ${journalArr[@]}; do 
  22.     ssh -q $HADOOP_USER@$jnode " 
  23.         source /etc/profile 
  24.         $HADOOPHOME/sbin/hadoop-daemon.sh start journalnode 
  25.     " 
  26.     echo "$jnode journalnode start done." 
  27. done 
  28.  
  29. # format zookeeper 
  30. $HADOOPHOME/bin/hdfs zkfc -formatZK 
  31.  
  32. # format hdfs 
  33. $HADOOPHOME/bin/hdfs namenode -format -clusterId $DFS_NAMESERVICES 
  34.  
  35. # start namenode 
  36. $HADOOPHOME/sbin/hadoop-daemon.sh start namenode 
  37.  
  38. # sign in master_ha, sync from namenode to namenode_ha 
  39. ssh -q $HADOOP_USER@$MASTER_HA_HOST " 
  40.     $HADOOPHOME/bin/hdfs namenode -bootstrapStandby 
  41.  
  42. # start zkfc on master 
  43. $HADOOPHOME/sbin/hadoop-daemon.sh start zkfc 
  44.  
  45. # start namenode_ha and datanode 
  46. $HADOOPHOME/sbin/start-dfs.sh 
  47.  
  48. # start yarn 
  49. $HADOOPHOME/sbin/start-yarn.sh 
  50.  
  51. # start yarn_ha 
  52. ssh -q $HADOOP_USER@$MASTER_HA_HOST " 
  53.     source /etc/profile 
  54.     $HADOOPHOME/sbin/yarn-daemon.sh start resourcemanager 
  55. echo "start all done."  

4 集群自動化部署流程

4.1 root腳本的執行

選擇一臺服務器作為Hadoop2.6.0的主節點,使用root用戶執行。

  1. 確保Hadoop集群所在服務器可以執行scp命令:在各個服務器上執行scp,如果提示命令沒有找到,執行安裝命令:yum –y install openssh-clients。
  2. 執行以下操作:
    1. 執行cd ~,進入/root目錄下
    2. 將root腳本所在目錄打成tar包(假設打包后的文件名為root_install.tar.gz),執行rz -y,上傳root_install.tar.gz(若無法找到rz命令,執行安裝命令:yum -y install lrzsz)
    3. 執行tar -zxvf root_install.tar.gz解壓
    4. 執行cd root_install,進入到root_install目錄中
    5. 執行. /installRoot.sh,開始安裝jdk、zookeeper、Hadoop,等待安裝結束
  3. 檢查/etc/hosts、/etc/profile的配置,執行java -version、hadoop version命令檢查jdk和Hadoop的安裝情況。若出現java、hadoop命令找不到的情況,重新登錄一次服務器再進行檢查。

4.2 hadoop腳本的執行

在主節點使用Hadoop啟動用戶執行(該啟動用戶是在root中執行的腳本里創建的,下面假設該用戶為hadoop2):

  1. 在root用戶中直接進入hadoop2用戶,執行su - hadoop2
  2. 執行以下操作:
    1. 執行cd~,進入/home/hadoop2目錄下
    2. 將hadoop腳本所在目錄打成tar包(假設打包后的文件名為hadoop_install.tar.gz),執行rz -y,上傳hadoop_install.tar.gz(若無法找到rz命令,執行安裝命令:yum -y install lrzsz)
    3. 執行tar -zxvf hadoop_install.tar.gz解壓
    4. 執行cd hadoop_install,進入到hadoop_install目錄中
    5. 執行./installCluster.sh,開始配置并啟動zookeeper、Hadoop,等待腳本執行結束
  3. 檢查zookeeper、Hadoop啟動日志,檢查是否安裝成功。通過Hadoop本身提供的監控頁面來檢查Hadoop集群的狀態。
  4. 最后根據mountTable.xml中fs.viewfs.mounttable.hCluster.link./tmp的配置,執行如下命令創建該name對應的value目錄:

hdfs dfs -mkdir hdfs://hadoop-cluster1/tmp

如果不創建,執行hdfs dfs -ls /tmp時會提示找不到目錄。

5 總結

Hadoop2.6.0部署腳本仍有缺陷,比如配置文件中參數較多,有部分重復,腳本的編寫也有待改進。權當拋磚引玉。如有錯誤請童鞋們指正,謝謝。

責任編輯:龐桂玉 來源: 神算子
相關推薦

2014-03-11 11:10:10

PowerShell自動化腳本

2011-08-25 09:33:25

MySQL運維

2021-12-08 09:00:00

數據庫Liquibase腳本

2013-12-12 16:37:49

Shell腳本自動化部署MFS

2021-03-16 12:08:32

Python 服務器腳本

2024-05-13 16:29:56

Python自動化

2023-04-06 07:09:25

自動化部署Actions

2013-11-27 11:34:43

自動化部署Python

2022-11-15 17:07:40

開發自動化前端

2024-09-13 15:32:18

2024-01-24 18:50:21

WebFTP服務器

2015-02-04 09:17:38

亞馬遜AWS云自動化

2017-12-17 21:58:18

2017-02-28 09:48:30

2022-04-08 09:05:53

Arch LinuxLinux

2011-05-31 17:35:45

測試自動化QTP

2009-12-15 17:28:11

Ruby自動化腳本框架

2014-03-11 11:03:17

自動化腳本PowerShell

2023-03-07 08:30:09

MCube模板緩存

2016-09-27 23:31:23

點贊
收藏

51CTO技術棧公眾號

欧美黑人巨大xxx极品| 天天摸天天碰天天爽天天弄| eeuss影院在线观看| 亚洲人成网站在线在线观看| 亚洲裸体俱乐部裸体舞表演av| 欧美香蕉大胸在线视频观看 | yellow视频在线观看一区二区| 免费a v网站| 美女免费久久| 天堂在线亚洲视频| 亚洲成年人在线播放| 免费观看黄色大片| 中文字幕在线观看高清| 一区二区美女| 欧美日韩国产精品| 国产在线精品二区| 国产无套内射又大又猛又粗又爽 | 亚洲一区亚洲二区| 成年人视频软件| 最新日韩三级| 91香蕉视频污在线| 777国产偷窥盗摄精品视频| 18禁一区二区三区| 国产嫩草在线视频| 国产风韵犹存在线视精品| 插插插亚洲综合网| 手机av在线免费| 日本三级视频在线观看| 久国产精品韩国三级视频| 日韩最新av在线| 欧美日韩在线观看不卡| 色开心亚洲综合| 91网站黄www| 99热国产免费| 国产有码在线观看| 91av精品| 日韩写真欧美这视频| www.激情网| 狠狠人妻久久久久久综合麻豆| 欧美视频福利| 亚洲激情成人网| 啊啊啊一区二区| 成年人视频在线观看免费| 成人av免费在线观看| 2021国产精品视频| 蜜桃传媒一区二区亚洲| 国产福利91精品一区二区| 国产精品视频观看| 亚洲一区亚洲二区| 91极品身材尤物theporn| 视频精品一区二区| 日本道色综合久久影院| 成人做爰69片免网站| 日韩在线激情| 性欧美疯狂xxxxbbbb| 日韩免费av一区二区三区| 一级二级三级视频| 亚洲黄色一区| 久久久久久久亚洲精品| 人妻aⅴ无码一区二区三区| 希岛爱理av免费一区二区| 欧美日韩成人综合| 一二三四视频社区在线| av一本在线| 国产成人av福利| 日韩av手机在线| 黑鬼狂亚洲人videos| 欧美绝顶高潮抽搐喷水合集| 欧美中文一区二区三区| 2022中文字幕| 超级碰碰不卡在线视频| 黄色一区二区在线| 中文字幕99| 深夜福利视频在线免费观看| 国产女优一区| 久久夜精品香蕉| √天堂中文官网8在线| 亚洲人成网站77777在线观看| 日韩精品高清在线| 三上悠亚 电影| 欧美暴力调教| 五月激情丁香一区二区三区| 精品这里只有精品| 怡红院av在线| 中文字幕在线一区二区三区| 蜜桃视频在线观看91| a级片在线免费看| 日韩不卡一区二区三区| 国内精品视频一区| 国产极品国产极品| 在线播放精品| 欧美成人激情视频| 亚洲ⅴ国产v天堂a无码二区| 婷婷色综合网| 中文字幕亚洲欧美| 我和岳m愉情xxxⅹ视频| 免费精品一区二区三区在线观看| 色婷婷香蕉在线一区二区| 妞干网视频在线观看| 免费a在线看| 亚洲成a人片综合在线| 欧美 日韩 国产 在线观看| 亚洲区欧洲区| 亚洲欧美日韩久久精品| 五月天色一区| 国产系列在线观看| 久久新电视剧免费观看| 九色91国产| 色综合视频在线| 国产精品乱人伦中文| 女人色极品影院| 99re久久| 日韩精品小视频| 久久无码人妻精品一区二区三区 | 欧美伦理视频网站| 日本久久久久久久久久久久| 成功精品影院| 精品国产a毛片| 国产伦理在线观看| 久久一区二区中文字幕| 久久久国产一区二区| 欧美一级片在线视频| 午夜亚洲一区| 国产激情999| 中文av免费观看| 99久久精品国产一区二区三区| 国产日韩欧美精品| 成人日日夜夜| 亚洲一本大道在线| 欧妇女乱妇女乱视频| 特级毛片在线| 欧美日韩三级在线| 三级黄色片免费看| 精品淫伦v久久水蜜桃| 亚洲精品美女久久 | 亚洲一区在线观看免费观看电影高清| 中文久久久久久| 欧美91在线|欧美| 欧美一区二区三级| 日本一卡二卡在线| 你懂的一区二区| 91高清视频免费观看| 亚洲欧美激情在线观看| 亚洲免费av网站| 日本国产在线播放| 国产福利资源一区| 亚洲香蕉成人av网站在线观看 | 加勒比色综合久久久久久久久| 久久人人爽人人爽爽久久| 中文字幕一区二区三区波野结 | 欧美一区二区三区在线免费观看| 精品美女视频在线观看免费软件| 中文字幕免费不卡| 成年在线观看视频| 欧美a级大片在线| 久久人人爽亚洲精品天堂| 在线观看免费观看在线| 国产精品久久久一区麻豆最新章节| 一级特黄性色生活片| 欧美天天综合| 久久久久久久久久久免费精品| 国内精品久久久久久久久久| 一卡二卡欧美日韩| 又色又爽又高潮免费视频国产| 日韩三级一区| 美女久久久久久久久久久| 精品久久久中文字幕人妻| 久久久久久久久伊人| 国产免费xxx| 成人视屏在线观看| 欧美精品一区二区三区蜜桃 | 国产剧情久久久久久| 日本加勒比一区| 国产精品美女久久久久aⅴ国产馆 国产精品美女久久久久av爽李琼 国产精品美女久久久久高潮 | 欧美办公室脚交xxxx| 在线观看视频91| 调教驯服丰满美艳麻麻在线视频 | 午夜影院在线观看欧美| 91精品国产自产| 日韩1区2区3区| 国产精品一区二区av| 欧美激情二区| 日韩欧美的一区二区| 99久久99久久精品免费| 99在线精品视频在线观看| 成人做爽爽免费视频| 国产在线你懂得| 欧美日韩一区二区三区在线看| 午夜精品一区二区三区视频| aa级大片欧美| 日韩美女爱爱视频| 伊人久久大香线蕉无限次| 国产精品网址在线| 欧美人与禽性xxxxx杂性| 777色狠狠一区二区三区| 欧美巨胸大乳hitomi| 国产麻豆精品视频| 久久久一二三四| 黄色免费大全亚洲| 国产啪精品视频网站| 国产69久久| 日韩欧美你懂的| 精品久久久久久久久久久久久久久久久久| 成人免费va视频| 日本一级黄视频| 美女精品一区最新中文字幕一区二区三区 | 可以在线观看的av网站| 精品国产乱码久久久久久虫虫漫画 | 在线观看 亚洲| 不卡的av电影在线观看| 另类小说色综合| 亚洲久久在线| 在线视频一二三区| 精品视频97| 国产精品视频一区国模私拍| av片在线免费观看| 亚洲电影免费观看高清| 91麻豆国产视频| 在线视频欧美精品| 六月丁香在线视频| 久久亚洲捆绑美女| 性活交片大全免费看| 在线成人av| 最新av网址在线观看| 亚洲91网站| 668精品在线视频| 大片免费在线观看| 中文字幕免费精品一区高清| 色久视频在线播放| 亚洲精品一区二区在线观看| 99在线观看精品视频| 欧美理论片在线| 自拍偷拍精品视频| 亚洲精品免费在线| 国产免费一区二区三区最新6| 亚洲视频成人| www.九色.com| 欧美日韩影院| 肉大捧一出免费观看网站在线播放 | 蜜桃麻豆av在线| 欧美激情xxxx| 手机av在线播放| 欧美理论片在线观看| 人人妻人人玩人人澡人人爽| 欧美一区二区三区日韩| 国产三级自拍视频| 精品久久香蕉国产线看观看gif| 青青草免费av| 国产欧美精品区一区二区三区 | 国产在线视频不卡二| 国产专区在线视频| 亚洲欧美日韩高清在线| 精品日韩电影| 91麻豆精品国产综合久久久| 国产精品视频久久| 日韩毛片免费看| 91美女福利视频高清| 欧美欧美在线| 国产精品国产精品国产专区蜜臀ah | 欧美性开放视频| 69国产精品视频免费观看| 日本韩国欧美国产| 九九九在线视频| 亚洲一区在线播放| 国产成人无码精品亚洲| 中文字幕一区三区| 日韩精品一区二区亚洲av性色| 综合自拍亚洲综合图不卡区| 国产精品300页| 久久亚洲精华国产精华液 | 中文字幕永久在线不卡| 国产免费久久久久| 亚洲综合视频在线观看| 久久精品久久国产| 日韩欧美有码在线| 一级黄色a毛片| 亚洲福利小视频| 国产高清视频在线播放| 久久夜精品香蕉| 性国裸体高清亚洲| 欧美精品生活片| 91资源在线观看| 久久在精品线影院精品国产| 免费在线播放电影| 日韩av快播网址| 成人豆花视频| 国产精品综合不卡av| 色悠久久久久综合先锋影音下载| 国产自产精品| 日韩理论电影| 日韩精品极品视频在线观看免费| 日韩一级毛片| 18禁网站免费无遮挡无码中文| 久久中文精品| 国产成人精品综合久久久久99| 91视频在线观看免费| 色www亚洲国产阿娇yao| 亚洲影院免费观看| 亚洲精品毛片一区二区三区| 一本色道久久综合亚洲精品按摩| 一级全黄少妇性色生活片| 亚洲国产成人精品一区二区| 亚洲天天影视| 97成人超碰免| 美女国产精品久久久| 欧洲精品一区色| 红桃视频欧美| 久久手机在线视频| 蜜桃一区二区三区在线| 国产一级不卡毛片| 丁香六月久久综合狠狠色| 中文字幕第24页| 五月天精品一区二区三区| 97精品人妻一区二区三区香蕉| 日韩av网址在线| 亚洲色图美国十次| 国产在线999| 国产va免费精品观看精品视频| 免费99视频| 欧美破处大片在线视频| 在线观看岛国av| 久久久久久99精品| 天天操天天爽天天干| 欧美成va人片在线观看| 日韩在线视频免费| 久久的精品视频| 久久久加勒比| 日本一区二区免费看| 国产精品免费看| 动漫美女无遮挡免费| 亚洲精品乱码久久久久久| 成人午夜精品视频| 亚洲欧美制服丝袜| 9色在线视频| 日本免费在线精品| 欧美激情99| 老太脱裤让老头玩ⅹxxxx| 国产a视频精品免费观看| caoporn91| 91精品国产品国语在线不卡| 日本综合在线| 91精品视频网站| 天天做天天爱综合| 黄色aaaaaa| 91亚洲精品久久久蜜桃网站| 久久亚洲国产成人精品性色| 色狠狠色狠狠综合| 欧美日韩在线中文字幕| 57pao精品| 最新精品国偷自产在线| 成年人小视频网站| 日本一区二区免费在线观看视频| 国产真人无遮挡作爱免费视频| 国产小视频91| 国产一区影院| eeuss中文| 国产69精品久久久久777| 国产在线免费视频| 亚洲精品久久久久久久久久久久久 | 在线播放精品视频| 久久精品中文字幕免费mv| 精品欧美视频| 欧美黑人在线观看| eeuss国产一区二区三区| www欧美在线| 欧美高清dvd| а√资源新版在线天堂| 丁香婷婷久久久综合精品国产| 欧美色女视频| 九九九九九伊人| 久久久久久久综合色一本| 无码人妻丰满熟妇区bbbbxxxx| 一区二区在线免费视频| 都市激情国产精品| 91在线中文字幕| 亚洲一级电影| 美女爆乳18禁www久久久久久| 欧美在线一区二区| 亚洲丝袜精品| 欧美日韩精品久久| 99精品视频免费| 国产综合精品久久久久成人av| 欧美嫩在线观看| 丁香花在线影院| 日韩在线观看电影完整版高清免费| 久久国产精品无码网站| 国产系列精品av| 日韩欧美国产电影| 综合日韩av| 国产免费色视频| 99综合电影在线视频| 五月激情丁香网| 欧美激情精品久久久久久黑人| 中文字幕精品影院| 一级黄色免费毛片| 欧美小视频在线观看| 成人av黄色| 日韩欧美亚洲精品| 成人综合激情网| 亚洲天堂国产精品|