你好,游客 登录
背景:
阅读新闻

Spark教程-构建Spark集群-配置Hadoop单机模式并运行Wordcount(2)

[日期:2014-09-02] 来源:Spark亚洲研究学院  作者: [字体: ]

接上一篇:Spark教程-构建Spark集群-配置hadoop单机模式并运行Wordcount(1)

    2.安装rsync

    我们的Ubuntu 12.10版本默认安装了rsync,我们可以通过以下命令来安装或者更新rsync

    3.安装hadoop,家林把下载下来的最新稳定版本的hadoop保存在电脑本地的以下位置:

    创建/usr/local/hadoop目录并把下载下来的Hadoop解压/usr/local/hadoop中:

    4.在hadoop-env.sh配置Java安装信息.

    进入/usr/local/Hadoop/Hadoop-1.2.1/conf

    打开hadoop-env.sh:

    按下回车即可进入该配置文件:

    在前面我们安装Java的时候把Java安装在了“/usr/lib/java/jdk1.7.0_60”,此时我们在hadoop-env.sh配置文件加入如下配置信息

    保存退出.

    使用source命令使hadoop-env.sh配置信息生效:

    此时Hadoop的单机模式配置成功!

    为了方便我们在开机启动后也可以立即使用Hadoop的bin目录下的相关命令,可以把bin目录配置到“~/.bashrc”文件中,此时开启启动后系统自动读取“~/.bashrc”文件的内容,我就就可以随时使用Hadoop的命令了:

    修改后的文件内容:

    保存退出,使用下面的命令使配置生效:

    5.验证Hadoop的版本信息,使用“hadoop version”命令即可:

    6.运行Hadoop自带的WordCount例子:

    首先在hadoop的目录下创建一个input目录并把conf下的所有文件copy到该目录下,需要如下命令即可:

    使用hadoop命令运行自带的wordcount程序并把结果输出到output中:

    运行过程如下:

    一直运行知道完成(因为运行过程有些长,中间省略了一些运行过程,只截取了开始和结束部分):

    查看运行结果:

    该命令执行后即显示出Wordcount运行input中若干个文件中单词统计结果,如下所示(直截取了其中一部分):

    至此,单机模式的构建、配置和运行测试彻底成功!





收藏 推荐 打印 | 录入: | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款