设为首页 收藏本站
查看: 1284|回复: 0

使用shell脚本实现自动化部署hadoop集群

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-12-8 13:17:42 | 显示全部楼层 |阅读模式
  有四台Linux服务器,其中一台为主,其它为从。服务器使用的是CentOS6.5,jdk选择1.6,hadoop选择1.0.4版本。要到实际环境中应用还要根据实际情况做修改。

    如果是新装好的系统,要先配置好ip,shell脚本如下:


    #!bin/bash

    read "input ip:" ip

    echo 'the default hostname is master'

    sed -i '$aIPADDR='$ip /etc/sysconfig/network-scripts/ifcfg-eth0

    sed -i '/BOOTPROTO/cBOOTPROTO="no"' /etc/sysconfig/network-scripts/ifcfg-eth0

    sed -i '/IPV6INIT/cIPV6INIT="no"' /etc/sysconfig/network-scripts/ifcfg-eth0

    sed -i '/NM_CONTROLLED/cNM_CONTROLLED="no"' /etc/sysconfig/network-scripts/ifcfg-eth0

    service network restart

    chkconfig network on

    service iptables stop

    chkconfig iptables off

    setenforce 0

    hostname master

    sed -i '/HOSTNAME/cHOSTNAME=master' /etc/sysconfig/network


    集群的ip配置如下,在实际环境中可以自己作调整。首先检查通信,通信成功才能下一步进行,否则安装终止。如果通信成功,才会执行接下来的步骤,则修改/etc/hosts文件和ssh_conf,然后重启ssh服务。密码要根据实际环境修改。

    masterip=192.168.2.254

    slave1ip=192.168.2.11

    slave2ip=192.168.2.2

    slave3ip=192.168.2.3

    service iptables stop

    chkconfig iptables off

    if [ -e ip.txt ];then

    rm -rf ip.txt

    fi

    touch ip.txt

    echo $masterip >>ip.txt

    echo $slave1ip >>ip.txt

    echo $slave2ip >>ip.txt

    echo $slave3ip >>ip.txt

    NEWPASS=123456

    NETWORK=TRUE

    echo "before you install,please make sure network is ok!!!"

    echo "now  test the network"

    for ip in $(cat ip.txt)

    do

    ping $ip -c 5 &>/dev/null

    if [ $? == 0 ] ;then

    echo "${ip} is ok"

    else

    echo "${ip} conn't connected"

    NETWORK=FALSE

    fi

    done

    echo $NETWORK

    if [ $NETWORK != FALSE   ];then

    .........

    fi


为了方便说明,笔者在此处做了步骤拆分.

    使用root用户实现master的root用户能够免秘钥ssh登陆其他主机。这样root用户就可以很方便的管理其他主机了。


    PASS=123456

    yum -y install tcl --nogpgcheck

    yum -y install expect --nogpgcheck

    expect <<EOF

            spawn ssh-keygen

            expect "Enter file in which to save the key (/root/.ssh/id_rsa):"

            send "\r"

    expect "Enter passphrase (empty for no passphrase):"

    send "\r"

    expect "Enter same passphrase again:"

    send "\r"

    expect eof

    EOF

    for ip in $(cat ip.txt)

    do

    expect <<EOF

            spawn ssh-copy-id root@${ip}

    expect "(yes/no)?"

            send "yes\r"

            expect "password:"

            send "${PASS}\r"

    expect eof

    EOF

    done

    expect <<EOF

            spawn ssh-copy-id hadoop@master

    expect "(yes/no)?"

            send "yes\r"

            expect "password:"

            send "${PASS}\r"

    expect eof

    EOF


   完成root无秘钥登陆其他主机后,各个主机添加hadoop用户,并修改/etc/hosts文件,主机上修改sshd的配置文件并重新启动服务。

    for ip in $(cat ip.txt)

    do

    ssh root@$ip "useradd hadoop"

    ssh root@$ip "echo '123456' | passwd --stdin hadoop"

    ssh root@$ip "echo $masterip'  master' >>/etc/hosts"

    ssh root@$ip "echo $slave1ip'   slave1' >>/etc/hosts"

    ssh root@$ip "echo $slave2ip'   slave1' >>/etc/hosts"

    ssh root@$ip "echo $slave3ip'   slave1' >>/etc/hosts"

    done

    cp ip.txt /home/hadoop

    cp hadoopsshconf.sh /home/hadoop

    chown hadoop:hadoop /home/hadoop/ip.txt

    chown hadoop:hadoop /home/hadoop/hadoopsshconf.sh


    ssh hadoop@localhost "sh hadoopsshconf.sh"


    sed -i '/#RSAAuthentication yes/cRSAAuthentication yes'  /etc/ssh/sshd_config

    sed -i '/#PubkeyAuthentication yes/cPubkeyAuthentication yes' /etc/ssh/sshd_config

    sed -i '/#AuthorizedKeysFile     .ssh/authorized_keys/AuthorizedKeysFile     .ssh/authorized_keysc' /etc/ssh/sshd_config

    service sshd restart

    chkconfig sshd on


    只有root用户能够免秘钥登陆其他主机是不够的,还要本机的hadoop用户能够免密钥登陆其他hadoop用户,上面的脚本中已经将脚本hadoopsshconf.sh拷贝到hadoop用户下方,使用ssh远程命令以hadoop用户执行即可。hadoopsshconf.sh如下:


    #!/bin/bash

    PASS=123456

    expect <<EOF

            spawn ssh-keygen

            expect "Enter file in which to save the key (/root/.ssh/id_rsa):"

            send "\r"

    expect "Enter passphrase (empty for no passphrase):"

    send "\r"

    expect "Enter same passphrase again:"

    send "\r"

    expect eof

    EOF

    cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

    chmod 600  ~/.ssh/authorized_keys

    for ip in $(cat ip.txt)

    do

    expect <<EOF

            spawn ssh-copy-id hadoop@${ip}

    expect "(yes/no)?"

            send "yes\r"

            expect "password:"

            send "${PASS}\r"

    expect eof

    EOF

    done

   

    安装jdk1.6脚本,首先清除掉系统上已经安装的jdk,避免版本冲突。


    #!/bin/bash

    rm -rf tmp.txt

    rpm -qa | grep java* > tmp.txt

    line=$(cat tmp.txt)

    for i in $line

    do

    rpm -e $i --nodeps

    done

    mkdir -p /usr/java

    cp ./jdk-6u32-linux-x64.bin /usr/java/

    cd /usr/java/

    ./jdk-6u32-linux-x64.bin

    rm -rf jdk-6u32-linux-x64.bin

    echo 'export JAVA_HOME=/usr/java/jdk1.6.0_32' >>/etc/profile

    echo 'export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib' >>/etc/profile

    echo 'export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin' >>/etc/profile

    source /etc/profile

    java -version

    cd -

   

接下来安装hadoop1.4.0,安装在/usr下边。脚本内容包括/etc/profile的修改,hadoop配置文件,hadop-env.sh,conre-site.xml,hdfs-site.xml,mapred-site.xml,masters和slaves的配置文件修改,兵拷贝到其他机子上去。

    mkdir -p /usr/hadoop

    tar -zxf hadoop-1.0.4.tar.gz -C /usr/hadoop

    mv /usr/hadoop/hadoop-1.0.4 /usr/hadoop/hadoop1

    chown -R hadoop:hadoop /usr/hadoop

    echo 'export HADOOP_HOME=/usr/hadoop/hadoop1' >> /etc/profile

    echo 'export PATH=$PATH:$HADOOP_HOME/bin' >>/etc/profile

    source /etc/profile

    echo 'export JAVA_HOME=/usr/java/jdk1.6.0_32' >> /usr/hadoop/hadoop1/conf/hadoop-env.sh

    echo 'export HADOOP_PID_DIR=/usr/hadoop/hadoop1/pids' >>/usr/hadoop/hadoop1/conf/hadoop-env.sh



    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/core-site.xml

    sed -i '6a\\t<value>hdfs://master:9000</value>' /usr/hadoop/hadoop1/conf/core-site.xml

    sed -i '6a\\t<name>fs.default.name</name>' /usr/hadoop/hadoop1/conf/core-site.xml

    sed -i '6a\\t<property>' /usr/hadoop/hadoop1/conf/core-site.xml



    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<value>false</value>' /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<name>dfs.permissions</name>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<value>/usr/hadoop/hadoop1/tmp/</value>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<name>hadoop.tmp.dir</name>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<value>/usr/hadoop/hadoop1/data/</value>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<name>dfs.data.dir</name>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<value>/usr/hadoop/hadoop1/namenode/</value>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<name>dfs.name.dir</name>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<value>3</value>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<name>dfs.replication</name>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/hdfs-site.xml



    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<value>2</value>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<name>mapred.tasktracker.reduce.tasks.maximum</name>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<value>2</value>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<name>mapred.tasktracker.map.tasks.maximum</name>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t</property>' /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<value>master:9001</value>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<name>mapred.job.tracker</name>'     /usr/hadoop/hadoop1/conf/mapred-site.xml

    sed -i '6a\\t<property>'     /usr/hadoop/hadoop1/conf/mapred-site.xml




    echo 'master' >> /usr/hadoop/hadoop1/conf/masters



    sed -i '1d' /usr/hadoop/hadoop1/conf/slaves

    echo 'slave1' >> /usr/hadoop/hadoop1/conf/slaves

    echo 'slave2' >> /usr/hadoop/hadoop1/conf/slaves

    echo 'slave3' >> /usr/hadoop/hadoop1/conf/slaves




    mkdir -p  /usr/hadoop/hadoop1/data/

    mkdir -p  /usr/hadoop/hadoop1/tmp/

    chown -R hadoop:hadoop  /usr/hadoop/

    chmod -R 755 /usr/hadoop/hadoop1/data/

    chmod -R 755 /usr/hadoop/hadoop1/tmp/

    for i in $(seq 3)

    do

    ssh slave$i "mkdir -p /usr/hadoop"

    done

    scp -r /usr/hadoop/hadoop1 root@slave1:/usr/hadoop

    scp -r /usr/hadoop/hadoop1 root@slave2:/usr/hadoop

    scp -r /usr/hadoop/hadoop1 root@slave3:/usr/hadoop

    for i in $(seq 3)

    do

    ssh slave$i "chown -R hadoop:hadoop /usr/hadoop"

    ssh slave$i "chmod -R 755 /usr/hadoop/hadoop1/data/"

    ssh slave$i "chmod -R 755 /usr/hadoop/hadoop1/tmp/"

    done



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-37595-1-1.html 上篇帖子: 用shell脚本实现通用二进制格式mysql 5.5.28 x86_64的安装 下篇帖子: python ,shell 脚本 执行同样操作,花费时间效率对比
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表