设为首页 收藏本站
查看: 1038|回复: 0

[经验分享] Spark笔记整理(十二):日志记录与监控

[复制链接]

尚未签到

发表于 2019-1-30 11:41:44 | 显示全部楼层 |阅读模式
1 Standalone模式下
  按照香飘叶子的文档部署好完全分布式集群后,提交任务到Spark集群中,查看hadoop01:8080,想点击查看某个已完成应用的历史情况,出现下面的提示:

Event logging is not enabled
No event logs were found for this application! To enable event logging, set spark.eventLog.enabled to true and spark.eventLog.dir to the directory to which your event logs are written.
  显然需要按照提示进行相关的配置,先将Spark服务停掉,然后在conf目录下的spark-defaults.conf配置文件中添加如下配置:

spark.eventLog.enabled  true
spark.eventLog.dir      hdfs://ns1/logs/spark
  不过需要提前在hdfs中创建好相关目录,将配置文件同步到各个节点上,然后重启Spark集群。
  再提交任务:

./spark-submit-standalone.sh spark-process-1.0-SNAPSHOT.jar cn.xpleaf.spark.scala.core.p1._01SparkWordCountOps
  然后就可以完成standalone模式下Spark日志的记录和查看了。

2 Yarn模式下

2.1 必知常识
  当采用Spark on Yarn的方式来执行Spark应用程序时,只需要在节点上配置好Spark的环境即可,不需要启动Spark的master或者Worker节点,因为最终的程序是跑在Hadoop集群上,由Yarn进行调度的,这点需要明确。
  在这种情况下,提交任务到Yarn上,是可以通过ResourceManager的地址来查看到执行的应用程序,比如RM是在hadoop02节点上启动,则默认可以通过hadoop02:8088来访问到其Application页面,但是如果这时希望查看到前面standalone模式下详细的Spark程序执行情况时,是没有办法的,即便启动了Hadoop的history-server,也仅仅只能查看到logs日志信息而已。
  这时,就需要启动Spark本身的日志服务器,并通过其来查看执行的应用程序的Spark详细日志信息。

  本文的描述都是基于Spark 1.6.2,后面新的Spark版本可能会有所不同。


2.2 日志(历史)服务器配置、启动与原理
  在当前安装Spark的节点上,进入到conf目录,在配置文件spark-defaults.conf添加下面的配置:

spark.eventLog.enabled  true    # 开启日志记录
spark.eventLog.dir      hdfs://ns1/logs/spark   # 日志的保存位置
spark.history.fs.logDirectory   hdfs://ns1/logs/spark   # 历史日志保存的位置
  前面两个的配置是保证,执行Spark程序时,完整的日志信息会保存下来,并保存到指定的位置上,最后一个配置则是说明,当启动Spark的应用程序历史服务器时,应该从哪里去读取相关的日志信息,并以与standalone模式相同的Web UI的形式将日志信息展示出来。
配置完成后,使用下面的命令来启动历史服务器:

./sbin/start-history-server.sh
  该日志历史服务器默认以18080端口号来启动,因此,可以访问相关地址+端口号来进行访问,比如我是在hadoop01节点上配置并启动该历史服务器的,那么就可以通过下面的地址进行访问:

hadoop01:18080
  访问之后看到的就跟standalone模式下的Web UI是一样的,更详细的配置说明可以参考官方文档:
  http://spark.apache.org/docs/1.6.2/monitoring.html#viewing-after-the-fact




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-669581-1-1.html 上篇帖子: 配置并启动spark的thriftserver网关 下篇帖子: spark 集群简单配置
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表