网中网 发表于 2019-1-30 13:39:29

利用docker 部署 spark项目的端口问题

  利用Docker安装项目:
  local模式要设置sparklocal.spark.driver.host
  yarn模式中只设置sparklocal.spark.driver.host和可以启动,但是无法执行任何语句,需要再设置
  sparkyarn.spark.driver.bindAddress
  和 blockmanager
  即可,在spark启动时指定对应host和bindaddress,docker指定访问设定的host和bindAddress
  和 blockmanager即可
  注意:sparkyarn.spark.driver.bindAddress 是spark2.1.0才有的参数,之前是没有的。所以说,在2.1.0之前,spark与docker结合,以上办法行不通。
  




页: [1]
查看完整版本: 利用docker 部署 spark项目的端口问题