y欢迎转载,转载请注明出处,徽沪一郎。 概要 前期准备 搭建hadoop 创建用户 下载hadoop运行版 设置环境变量 .bashrc 文件中。创建目录 修改Hadoop配置文件 yarn-site.xml core-site.xml hdfs-site.xml mapred-site.xml etc/hadoop/yarn-site.xml,  在和之间添加如下内容,其它文件添加位置与此一致etc/hadoop/core-site.xml    hdfs://localhost:9000  etc/hadoop/hdfs-site.xml etc/hadoop/mapred-site.xml 格式化namenode 启动hdfs相关进程 启动namenode 启动datanode 启动mapreduce framework相关进程 启动Resource Manager 启动Node Manager 启动Job History Server 验证部署 运行wordCount 在yarn上运行SparkPi 下载spark 运行SparkPi hduser 身份运行,最主要的一点就是设置YARN_CONF_DIR或HADOOP_CONF_DIR环境变量检查运行结果 ./logs/userlogs/application_1400479924971_0002/container_1400479924971_0002_01_000001/stdout, 使用cat可以看到结果 
 
 
  
运维网声明 
1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003运维网