mkdir /home/app
sudo tar zxvf ./hadoop-1.0.0.tar.gz –C /home/app/
cd /home/app/hadoop-1.0.0进入Hadoop目录
vi conf/hadoop-env.sh修改配置文件,指定JDk安装路径
source conf/hadoop-env.sh使立即生效
修改Hadoop核心配置文件core-site.xml,这里配置的是HDFS的地址和端口号
|
|
| <name>fs.default.name</name>
|
| <value>hdfs://localhost:9000</value>
|
|
|
修改Hadoop中HDFS的配置,配置的备份方式默认为3,因为安装的是单机版,所以需要改为1
|
|
| <name>dfs.replication</name>
|
修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口
|
|
| <name>mapred.job.tracker</name>
|
| <value>localhost:9001</value>
|
|
|
接下来,启动Hadoop,在启动之前,需要格式化Hadoop的文件系统HDFS,进入Hadoop文件夹,输入下面命令
| bin/hadoop namenode –format(为什么启动之前要执行这一步,否则50060和50070会报错)
https://www.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/huxuan/LOCALS~1/Temp/msohtmlclip1/01/clip_image002.jpg
|
最后,验证Hadoop是否安装成功。打开浏览器,分别输入一下网址:
http://localhost:50030 (MapReduce的Web页面)
http://localhost:50070 (HDfS的web页面)
https://www.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/huxuan/LOCALS~1/Temp/msohtmlclip1/01/clip_image004.jpg
https://www.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/huxuan/LOCALS~1/Temp/msohtmlclip1/01/clip_image006.jpg |