1. 从官网下载Spark安装包,解压到自己的安装目录下(默认已经安装好JDK,JDK安装可自行查找); spark官网:http://spark.apache.org/downloads.html
2. 进入系统命令行界面,进入安装目录下,如"/安装目录/spark-1.6.0-bin-hadoop-2.6.0 ",输入命令"./bin/pyspark"验证pyspark能否运行,再输入命令“./bin/spark-shell”,查看scala环境能否运行。成功的话会显示Spark图形,并能输入python或scala命令行。如下图(python版):
3. 对于python版,先下载pycharm,点击完成安装。新建一个工程,打开Edit configuration,找到Environment variables,点击后面的编辑框,在变量栏目中依次添加PYTHONPATH,值为spark目录/python,SPARK_HOMR,值为spark安装目录,点ok退出。
4. 如果是用python的话还要下载py4j包,用在命令行输入“easy_install py4j”命令就行。然后进入spark安装目录中的python文件夹下,打开lib文件夹,把里面的py4j压缩包复制到上一级python文件夹下,解压。
5. 在pycharm中写好demo,点击运行即可。demo示例如下:
"""SimpleApp.py"""
from pyspark import SparkContext
logFile = "/Spark/spark-1.6.0-bin-hadoop2.6/README.md" # Should be some file on your system
sc = SparkContext("local", "Simple App")
logData = sc.textFile(logFile).cache()
numAs = logData.filter(lambda s: 'a' in s).count()
numBs = logData.filter(lambda s: 'b' in s).count()
print("Lines with a: %i, lines with b: %i" % (numAs, numBs))
6. 如果用scala环境,那么需要下载IntelliJ IDEA,和Pycharm是同一个公司出品,直接去搜名字去官网下 免费版。在第一次打开时会提示安装插件,这时候选择安装scala插件,spark1.6对应scala2.10版本,大概47M。插件下载好之后就可以新建一个scala工程。
7. 单击Intellij IDE菜单栏上File选项,选择Project Structure,在弹出的对话框中单击左侧Libraries,之后单击中间上方绿色“+”号,添加spark中的lib文件夹下的assembly jar包,点击应用。
8. 然后从Spark官网上找一个demo,把里面的spark路径换成自己的。打开Edit configuration,点击左上角加号,选择Application,进入设置运行配置的对话框,按照下图配置,其中Program arguments手动输入local,然后右键选择main 函数地址,系统会自动添加。VM options 的值是设置单机运行,不设置会报错。
9. 点击ok完成配置,运行程序即可。
运维网声明
1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网 享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com