设为首页 收藏本站
查看: 999|回复: 0

[经验分享] 1、Python大数据应用——部署Hadoop

[复制链接]

尚未签到

发表于 2018-8-6 11:07:14 | 显示全部楼层 |阅读模式
Python大数据应用简介
  简介:目前业界主流存储与分析平台以Hadoop为主的开源生态圈,MapReduce作为Hadoop的数据集的并行运算模型,除了提供Java编写MapReduce任务外,还兼容了Streaming方式,可以使用任意脚本语言来编写MapReduce任务,优点是开发简单且灵活。

Hadoop环境部署

1、部署Hadoop需要Master访问所有Slave主机实现无密码登陆,即配置账号公钥认证。

2、Master主机安装JDK环境
  

yum安装方式:yum install -y java-1.6.0-openjdk*  

  
配置Java环境变量:vi /etc/profile
  
JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64
  
JRE_HOME=$JAVA_HOME/jre
  
CLASS_PATH=::$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
  
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

  
export JAVA_HOME JRE_HOME>  

  
使配置文件生效:source /etc/profile
  

3、Master主机安装Hadoop

3.1、下载Hadoop,解压到/usr/local目录下

3.2、修改hadoop-env.sh中java环境变量
  

export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64  

3.3、修改core-site.xml(Hadoop core的配置文件)
  

<configuration>  
<property>
  <name>hadoop.tmp.dir</name>
  <value>/data/tmp/hadoop-${user.name}</value>
  
</property>
  
<property>
  <name>fs.default.name</name>
  <value>hdfs://192.168.1.1:9000</value>
  
</property>
  
</configuration>
  

3.4、修改hdfs-site.xml(Hadoop的HDFS组件的配置项)
  

<configuration>  
<property>
  <name>dfs.name.dir</name>
  <value>/data/tmp/name</value>
  
</property>
  
<property>
  <name>dfs.data.dir</name>
  <value>/data/hdfs/data</value>
  
</property>
  
<property>
  <name>dfs.datanode.max.xcievers</name>
  <value>4096</value>
  
</property>
  
<property>
  <name>dfs.replication</name>
  <value>2</value>
  
</property>
  
</configuration>
  

3.5、修改mapred-site.xml(配置map-reduce组件的属性,包括jobtracker和tasktracker)
  

<configuration>  
<property>
  <name>mapred.job.tracker</name>
  <value>192.168.1.1:9001</value>
  
</property>
  
</configuration>
  

3.6、修改masters,slaves配置文件
  masters文件
  

192.168.1.1  

  slaves文件
  

192.168.1.1  
192.168.1.2
  
192.168.1.3
  

4、Slave主机配置

4.1、配置和Master主机一样的JDK环境,目标路径保持一致

4.2、将Master主机配置好的hadoop环境复制到Slave主机上

5、配置防火墙
  master主机
  

iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50030 -j ACCEPT  
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50070 -j ACCEPT
  
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 9000 -j ACCEPT
  
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 90001 -j ACCEPT
  

  Slave主机
  

iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50075 -j ACCEPT  
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50060 -j ACCEPT
  
iptables -I INPUT -s 192.168.1.1 -p tcp --dport 50010 -j ACCEPT
  

6、检验结果

6.1、在Master主机上执行启动命令(在安装目录底下)
  

./bin/start-all.sh  

  所示结果如下,表示启动成功
DSC0000.jpg


6.2、在Master主机上测试MapReduce示例
  

./bin/hadoop jar hadoop-examples-1.2.1.jar pi 10 100  

  所示结果如下,表示配置成功
DSC0001.jpg


7、补充:访问Hadoop提供的管理页面
  Map/Reduce管理地址:192.168.1.1:50030
DSC0002.jpg

  HDFS管理地址:192.168.1.1:50070
DSC0003.jpg

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-547539-1-1.html 上篇帖子: Python+Selenium与Chrome如何进行完美结合 下篇帖子: 【AI基础】python:pandas学习笔记
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表