1、下载地址
linux命令下具体操作如下: 2、安装配置参考文档
官网: 这是单机配置 http://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-common/SingleCluster.html
博客: http://blog.iyunv.com/liangliangdetianxia/article/details/37716141 3、具体安装配置
1、下载
2、解压
root@i-5ygfjuik:~#tar zxvf hadoop-2.4.1.tar.gz.1 3、单机配置
在hadoop文件夹下 etc/hadoop/hadoop-env.sh 修改下面内容 # set to theroot of your Java installation
export JAVA_HOME=/usr/java/latest
本例中用到export JAVA_HOME=/opt/jdk
//hadoop的安装路径
Hadoop 环境配置
需要在linux系统下 找到profile文件进行配置 profile文件一般都在/etc/profile
以本文为例具体配置如下:
# vim /etc/profile
export HADOOP_PREFIX=/root/hadoop-2.4.1
export PATH=$PATH:$HADOOP_PREFIX/bin
#Assuming your installation directory is /usr/local/hadoop
exportHADOOP_PREFIX=/usr/local/hadoop
启动hadoop $ bin/hadoop
4、伪分布配置(配置不全)
root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop# vimcore-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#vim hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
伪分布配置 需要进入hadoop安装目录下找到 hadoop目录下的etc/hadoop --------------------------------------------------------
对etc/hadoop中的文件进行配置(相关文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml)
a.配制core-site.xml
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/hadoop/hadoop-2.4.1/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hadoop/hadoop-2.4.1/dfs/data</value> </property> </configuration> 注意红色字体hadoop是我为配置hadoop2.4.1设立的账户名称,是系统在home目录下自动创建的,可以根据需要更改。
b.配制hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <!--系统默认文件保存3份,因伪分布模式,故改为1份--> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/hadoop-2.4.0/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/hadoop-2.4.0/dfs/data</value> </property> </configuration> c.配制mapred-site.xml(具体参考安装的版本)
<configuration> <property> <name>mapreduce.jobtracker.address</name> <value>localhost:9001</value> </property> </configuration> d.配置yarn-site.xml
<configuration> <!-- Sitespecific YARN configuration properties --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
---------------------------------------------------
现在,检查SSh 能否自动登录(不需要密码) root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#ssh localhost
如果不可以,就按下面设置
root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
执行
1、格式化
root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs namenode –format 必须这样执行,不能进入bin 在执行 2、开始NameNode 和DataNode的守护进程
root@i-5ygfjuik:~/hadoop-2.4.1# sbin/start-dfs.sh 3、浏览NameNode的界面 默认情况下是可以的
4、使HDFS目录能够执行MAPReduce的工作
root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs dfs –mkdir /user root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs dfs –mkdir /user/username
5、复制输入文件到这个分布式系统
(还没跑通) root@i-5ygfjuik:~/hadoop-2.4.1# bin/hdfs dfs -putetc/hadoop input 6、运行一些提供的例子
root@i-5ygfjuik:~/hadoop-2.4.1# bin/hadoop jarshare/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar grep input output'dfs[a-z.]+'
7、检查输出结果
把输出文件从分布式文件系统拷贝到本地文件系统,以便研究结果
root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs dfs -get output output
root@i-5ygfjuik:~/hadoop-2.4.1#cat output/*
在分布式系统中查看结果
root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs dfs -cat output/*
8、当你完成后,停止守护进程
root@i-5ygfjuik:~/hadoop-2.4.1#sbin/stop-dfs.sh
|