qq78707 发表于 2017-12-25 10:08:47

Apache Spark探秘:利用Intellij IDEA构建开发环境

  1)准备工作
  1)安装JDK 6或者JDK 7      或者JDK8mac 的参看http://docs.oracle.com/javase/8/docs/technotes/guides/install/mac_jdk.html
  2)安装scala 2.10.x (注意版本)   参看http://www.cnblogs.com/xd502djj/p/6546514.html

  2)下载Intellij>
  3)将下载的Intellij>  依次选择“Configure”–> “Plugins”–> “Browse repositories”,输入scala,然后安装即可

  (2)搭建Spark源码阅读环境(需要联网)
  一种方法是直接依次选择“import project”–> 选择spark所在目录 –> “SBT”,之后intellij会自动识别SBT文件,并下载依赖的外部jar包,整个流程用时非常长,取决于机器的网络环境(不建议在windows下操作,可能遇到各种问题),一般需花费几十分钟到几个小时。注意,下载过程会用到git,因此应该事先安装了git。

  第二种方法是首先在linux操作系统上生成intellij项目文件,然后在intellij>
  注:如果你在windows下阅读源代码,建议先在linux下生成项目文件,然后导入到windows中的intellij>  (3)搭建Spark开发环境

  在intellij>
  编写完scala程序后,可以直接在intellij中,以local模式运行,方法如下:

  点击“Run”–> “Run Configurations”,在弹出的框中对应栏中填写“local”,表示将该参数传递给main函数,如下图所示,之后点击“Run”–> “Run”运行程序即可。
  如果想把程序打成jar包,通过命令行的形式运行在spark 集群中,可以按照以下步骤操作:
  依次选择“File”–> “Project Structure” –> “Artifact”,选择“+”–> “Jar” –> “From Modules with dependencies”,选择main函数,并在弹出框中选择输出jar位置,并选择“OK”。
  最后依次选择“Build”–> “Build Artifact”编译生成jar包。具体如下图所示。

  原创文章,转载请注明: 转载自董的博客
  本文链接地址: http://dongxicheng.org/framework-on-yarn/apache-spark-intellij-idea/
  作者:Dong,作者介绍:http://dongxicheng.org/about/
  本博客的文章集合:http://dongxicheng.org/recommend/
页: [1]
查看完整版本: Apache Spark探秘:利用Intellij IDEA构建开发环境