设为首页 收藏本站
查看: 1175|回复: 0

[经验分享] Hadoop生态圈各组件的启动及关闭脚本

[复制链接]

尚未签到

发表于 2017-12-18 08:37:27 | 显示全部楼层 |阅读模式
  将所学知识整理一下,备忘。
  1. Hdfs (v 2.7.3)
  1.1.启动集群
  

sbin/start-dfs.sh  

  注:这个启动脚本是通过ssh对多个节点的namenode、datanode、journalnode以及zkfc进程进行批量启动的。
  1.2.启动NameNode
  

sbin/hadoop-daemon.sh start namenode  

  1.3.启动DataNode
  

sbin/hadoop-daemon.sh start datanode  

  1.4. 启动 MR的HistoryServer
  

sbin/mr-jobhistory-daemon.sh start historyserver  

  1.4.停止集群
  

sbin/stop-dfs.sh  

  1.5.停止单个进程
  

sbin/hadoop-daemon.sh stop zkfc  
sbin
/hadoop-daemon.sh stop journalnode  
sbin
/hadoop-daemon.sh stop datanode  
sbin
/hadoop-daemon.sh stop namenode  

  参考:http://www.cnblogs.com/jun1019/p/6266615.html
  2. Yarn (v 2.7.3)
  2.1.启动集群
  

sbin/start-yarn.sh  

  注:start-yarn.sh启动脚本只在本地启动一个ResourceManager进程,而3台机器上的nodemanager都是通过ssh的方式启动的。
  2.2.启动ResouceMananger
  

sbin/yarn-daemon.sh start resourcemanager  

  2.3.启动NodeManager
  

sbin/yarn-daemon.sh start nodemanager  

  2.3.启动JobHistoryServer
  

sbin/yarn-daemon.sh start historyserver  

  2.4.停止集群
  

sbin/stop-yarn.sh  

  2.5.停止单个节点
  

sbin/yarn-daemon.sh stop resourcemanager  
sbin
/yarn-daemon.sh stop nodemanager  

  参考:http://www.cnblogs.com/jun1019/p/6266615.html
  3. Zookeeper (v 3.4.5)
  3.1.启动集群
  

bin/zkServer.sh start  

  3.2.启动单个节点
  

bin/zkServer.sh start  

  3.3.启动客户端
  

bin/zkCli.sh -server master:2181  

  4.Kafka (v 2.10-0.10.1.1)
  4.1.启动集群
  

bin/kafka-server-start.sh -daemon config/server.properties  

  4.2.启动单个节点
  

bin/kafka-server-start.sh -daemon config/server.properties  

  4.3.创建Topic
  

bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test  

  4.4.列出Topic
  

bin/kafka-topics.sh --list --zookeeper master:2181  

  4.5.生产数据
  

bin/kafka-console-producer.sh --broker-list master:9092 --topic test  

  4.6.读取数据
  

bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning  

  5.Hbase (v 1.2.4)
  5.1.启动/停止集群
  

bin/start-hbase.sh  bin/stop-hbase.sh
  

  5.2. 启动/停止HMaster
  

bin/hbase-daemon.sh start master  bin/hbase-daemon.sh stop master
  

  5.3. 启动/停止HRegionServer
  

bin/hbase-daemon.sh start regionserver  bin/hbase-daemon.sh stop regionserver
  

  5.2.启动Shell
  

bin/hbase shell  

  6.Spark (v 2.1.0-bin-hadoop2.7)
  6.1.启动程序
  6.1.1. 本地
  

bin/spark-shell --master local  

  6.1.2.Standalone
  

bin/spark-shell --master spark://master:7077  

  6.1.3. Yarn Client
  

bin/spark-shell --master yarn-client  

  6.1.4. Yarn Cluster
  

bin/spark-shell --master yarn-cluster  

  7. Flume
  7.1启动Agent
  

bin/flume-ng agent -n LogAgent -c conf -f conf/logagent.properties -Dflume.root.logger=DEBUG,console  

  8.Sqoop
  8.1.导入
  

sqoop import \  

--connect jdbc:mysql://mysql.example.com/sqoop \  
--username sqoop \
  
--password sqoop \
  
--table cities
  

  8.2.导出
  

sqoop export \  

--connect jdbc:mysql://mysql.example.com/sqoop \  
--username sqoop \
  
--password sqoop \
  
--table cities \
  
--export-dir cities
  

  9.Hive
  9.1 启动metastore
  

nohup hive --service metastore >> /home/zkpk/apache-hive-2.1.1-bin/metastore.log 2>&1  &  

  9.2 启动Hive server
  

nohup hive --service hiveserver2 >> /home/zkpk/apache-hive-2.1.1-bin/hiveserver.log 2>&1 &  

  9.2. 启动Shell
  

hive -h <host> -p <port>  
beeline
-u jdbc:hive2://<host>:<port>  

  10. Mysql
  10.1.启动Shell
  

mysql -u<user> -p<password>  

  <未完待续>

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425272-1-1.html 上篇帖子: Hadoop源码分析之产生InputSplit文件过程 下篇帖子: 关于Hadoop未授权访问可导致数据泄露通知
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表