hadoop的简单安装部署过程
为了做些实验,所以在自己笔记本电脑上装了个虚拟机,系统为CentOS6.2,JDK1.7,hadoop-1.0.1
为了简单起见,部署伪分布式,即仅有一个节点,这个节点既是Master,也是Slave,既是NameNode,也是DataNode,既是JobTracker,也是TaskTracker。 部署总体说明: 伪分布式部署比较简单,只需要搞定4个配置文件即可,分别是: 1.hadoop-env.sh //用以指定JDK的位置 2.core-site.xml //核心配置,用以指定HDFS地址及端口号 3.hdfs-site.xml //HDFS配置,可以指定备份数量,默认为3,伪分布式需要配置为1 4.mapred-site.xml //用以配置JboTracker的地址及端口 配置完上述文件之后,还差两步: 1.格式化HDFS文件系统 2.启动并验证 正式开始: 1.配置hadoop-env.sh 由于忘记了JDK的位置,用java -verbose查了一下,找到/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre 因此,在hadoop-env.sh中写入如下一行(其实可以找到指定位置,读者可以自己发现) export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64/jre 2.配置core-site.xml <?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
//说明:其实其他部分已经有了,只需要自己敲入黑色加粗部分就可以了 3.配置hdfs-site.xml <?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4.配置mapred-site.xml <?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Putsite-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
进入最后两步: 1.格式化hdfs [iyunv@wjz hadoop]# cd /usr/local/hadoop/bin //进入hadoop的可执行文件bin目录 [iyunv@wjz bin]# ./hadoop namenode -format //执行格式化命令 2.启动并验证 [iyunv@wjz bin]# ./start-all.sh 打开浏览器验证,分别输入如下网址: http://localhost:50030 (MapReduce的WEB页面)
http://localhost:50070 (HDFS的WEB页面)
----搞定,OK了
|