配置完成后进行部署,把配置好的hadoop文件夹拷贝到hadoop1主机上。命令如下:
[root@hadoop0:~]# scp -r /usr/local/hadoop root@192.168.0.13: /usr/local/
需要注意,如在hadoop1-DataNode上某些配置路径和hadoop0-NameNode主机上不一致,则需要修改成对应的hadoop1-DataNode主机上的路径。
例如:hadoop1-DataNode的Java安装路径不一样,要修改conf/hadoop-env.sh。建议尽量使用相同的路径安装部署。
至此,hadoop部署完毕。
4.测试:
重启终端,格式化namenode:
进入hadoop目录下的bin目录,输入
./hadoop namenode -format对hadoop进行格式化。
启动hadoop:在hadoop的bin目录下,输入
./start-all.sh
如果启动成功,可以用jps命令查看namenode,datanode,jobtracker,tasktracker,secondarynamenode
五个节点都启动,则正常启动了。
停止hadoop,在hadoop的bin目录下,输入
./stop-all.sh
附:secondarynamenode配置
假设增加一台机器为192.168.0.12
首先修改namenode和secondarynamenode两台机器的master文件,把secondarynamenode的主机名添加上去(一行一个)
然后登录secondarynamenode修改conf/core-site.xml
fs.checkpoint.dir
/data/work/hdfs/namesecondary 这里存储namenode的镜像
Determines where on the local filesystem the DFS secondary name node should store the temporary images to merge. If this is a comma-delimited list of directories then the image is replicated in all of the directories for redundancy.
修改conf/hdfs-site.xml
dfs.http.address
192.168.0.11:50070 这里修改namenode主机的IP
The address and the base port where the dfs namenode web ui will listen on. If the port is 0 then the server will start on a free port.
create user 'hadoop'@'localhost'> grant all privileges on *.* to 'hadoop'@'localhost' with grant option;
然后输入exit;命令退出mysql,重新登录则需要用户名和密码:
Mysql -uhadoop -phadoop;
下载mysql-connector-java
wget 'http://cdn.mysql.com/Downloads/Connector-J/mysql-connector-java-5.1.22.tar.gz'
tar xvf mysql-connector-java-5.1.22.tar.gz
拷贝mysql-connector-java-5.1.10-bin.jar到/usr/local/hive/lib目录下。
cp mysql-connector-java-5.1.22/mysql-connector-java-5.1.22-bin.jar /usr/local/hive/lib/
修改/usr/local/hive/conf/hive-site.xml配置文件,如下:
退出命令行终端后,重新启动hadoop,进入hive/bin,输入
./hive
进入hive命令的控制台。输入
show tables;
第一次会比较慢,成功显示OK,则说明hive配置成功。
1.3 SQOOP安装部署
sqoop安装部署说明
将sqoop-1.4.2.bin_hadoop-1.0.0.tar.gz拷贝到/usr/local/sqoop目录下,执行命令解压sqoop包:
tar xzf sqoop-1.4.2.bin_hadoop-1.0.0.tar.gz
sqoop-1.4.2.bin_hadoop-1.0.0依赖hadoop-core-1.0.3.jar,所以将hadoop安装目录/usr/local/hadoop目录下的hadoop-core-1.0.3.jar拷贝到sqoop的lib目录下。
sqoop导入oracle数据运行过程中依赖ojdbc14.jar,将其复制到sqoop的lib目录下。
ojdbc14.jar在$ORACLE_HOME/jdbc/下
修改sqoop文件
修改SQOOP的文件configure-sqoop,注释掉hbase和zookeeper
检查(没有则不需注释),如下:
#if [ ! -d "${HBASE_HOME}" ]; then
# echo “Error: $HBASE_HOME does not exist!”
# echo ‘Please set $HBASE_HOME to the root of your HBase installation.’
# exit 1
#fi
#if [ ! -d "${ZOOKEEPER_HOME}" ]; then
# echo “Error: $ZOOKEEPER_HOME does not exist!”
# echo ‘Please set $ZOOKEEPER_HOME to the root of your ZooKeeper installation.’
# exit 1
#fi
修改完成后,则sqoop配置完成。