【Spark亚太研究院系列丛书】Spark实战高手之路
结束historyserver的命令如下所示:http://s3.运维网.com/wyfs02/M02/4D/AD/wKioL1RXI_iBF3KwAAC-PTC7sXk177.jpg
第四步:验证Hadoop分布式集群
首先在hdfs文件系统上创建两个目录,创建过程如下所示:
http://s3.运维网.com/wyfs02/M01/4D/AE/wKiom1RXI5mjRTSFAADMDdFoZzE955.jpg
Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,程序运行的结果输出到/output/wordcount目录中,透过Web控制可以发现我们成功创建了两个文件夹:
http://s3.运维网.com/wyfs02/M02/4D/AD/wKioL1RXI_jiCeUUAAKjM9eHuEg297.jpg
接下来将本地文件的数据上传到HDFS文件夹中:
http://s3.运维网.com/wyfs02/M02/4D/AE/wKiom1RXI5minCMOAACtC2h6bcQ964.jpg
透过Web控制可以发现我们成功上传了文件:
http://s3.运维网.com/wyfs02/M00/4D/AD/wKioL1RXI_nALIrcAAPWJ1ijMyU126.jpg
也可通过hadoop的hdfs命令在控制命令终端查看信息:
http://s3.运维网.com/wyfs02/M02/4D/AE/wKiom1RXI5qQ1B8KAALCAm5Icpg010.jpg
运行Hadoop自带的WordCount例子,执行如下命令:
http://s3.运维网.com/wyfs02/M00/4D/AD/wKioL1RXI_mAm7NpAAD8jNy3C_A428.jpg
运行过程如下:
http://s3.运维网.com/wyfs02/M00/4D/AE/wKiom1RXI5rh5sqQAAac3yM0xpU732.jpg
http://s3.运维网.com/wyfs02/M01/4D/AD/wKioL1RXI_nwoyBQAARnBeVGBBI013.jpg
http://s3.运维网.com/wyfs02/M01/4D/AE/wKiom1RXI5vzD2mdAAKbb05EY5o005.jpg
页:
[1]