你好,游客 登录
背景:
阅读新闻

Spark在Hadoop集群上的配置(spark-1.1.0-bin-hadoop2.4)

[日期:2016-07-20] 来源:Linux社区  作者:jasondan [字体: ]

运行Spark服务,需要在每个节点上部署Spark。

可以先从主节点上将配置修改好,然后把Spark直接scp到其他目录。

Spark

关键配置

修改 conf/spark-env.sh 文件:

export JAVA_HOME=/usr/java/latest
export hadoop_CONF_DIR=/opt/hadoop-2.4.1/etc/hadoop/
export SPARK_MASTER_IP=master

以上是必要的几个配置,详细的配置说明,请参见官网的Document。

修改 conf/slaves ,slave节点配置,将worker节点的主机名直接添加进去即可。

启动集群

sbin/start-all.sh

jps 查看本机java进程,主节点应该有 Master 进程,worker节点应该有个 Worker 进程。

WebUI地址: http://master:8080

测试Spark, bin/run-example SparkPi ,正常的话,可以看到以下测试结果:

...
15/11/11 22:11:25 INFO scheduler.TaskSetManager: Finished task 0.0 in stage 0.0 (TID 0) in 4052 ms on localhost (1/2)
15/11/11 22:11:25 INFO scheduler.DAGScheduler: Stage 0 (reduce at SparkPi.scala:35) finished in 4.130 s
15/11/11 22:11:25 INFO scheduler.TaskSetManager: Finished task 1.0 in stage 0.0 (TID 1) in 69 ms on localhost (2/2)
15/11/11 22:11:25 INFO scheduler.TaskSchedulerImpl: Removed TaskSet 0.0, whose tasks have all completed, from pool 
15/11/11 22:11:25 INFO spark.SparkContext: Job finished: reduce at SparkPi.scala:35, took 4.613856515 s
Pi is roughly 3.1531
15/11/11 22:11:26 INFO handler.ContextHandler: stopped o.e.j.s.ServletContextHandler{/metrics/json,null}
15/11/11 22:11:26 INFO handler.ContextHandler: stopped o.e.j.s.ServletContextHandler{/stages/stage/kill,null}
15/11/11 22:11:26 INFO handler.ContextHandler: stopped o.e.j.s.ServletContextHandler{/,null}
15/11/11 22:11:26 INFO handler.ContextHandler: stopped o.e.j.s.ServletContextHandler{/static,null}
15/11/11 22:11:26 INFO handler.ContextHandler: stopped o.e.j.s.ServletContextHandler{/executors/json,null}
...

更多Hadoop相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13





收藏 推荐 打印 | 录入: | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款