你好,游客 登录 注册 搜索
背景:
阅读新闻

hadoop dfs 常用命令行

[日期:2013-06-14] 来源:  作者: [字体: ]

  * 文件操作

  * 查看目录文件

  * $ hadoop dfs -ls /user/cl

  *

  * 创建文件目录

  * $ hadoop dfs -mkdir /user/cl/temp

  *

  * 删除文件

  * $ hadoop dfs -rm /user/cl/temp/a.txt

  *

  * 删除目录与目录下所有文件

  * $ hadoop dfs -rmr /user/cl/temp

  *

  * 上传文件

  * 上传一个本机/home/cl/local.txt到hdfs中/user/cl/temp目录下

  * $ hadoop dfs -put /home/cl/local.txt /user/cl/temp

  *

  * 下载文件

  * 下载hdfs中/user/cl/temp目录下的hdfs.txt文件到本机/home/cl/中

  * $ hadoop dfs -get /user/cl/temp/hdfs.txt /home/cl

  *

  * 查看文件

  * $ hadoop dfs –cat /home/cl/hdfs.txt

  *

  * Job操作

  * 提交MapReduce Job, Hadoop所有的MapReduce Job都是一个jar包

  * $ hadoop jar <local-jar-file> <java-class> <hdfs-input-file> <hdfs-output-dir>

  * $ hadoop jar sandbox-mapred-0.0.20.jar sandbox.mapred.WordCountJob /user/cl/input.dat /user/cl/outputdir

  *

  * 杀死某个正在运行的Job

  * 假设Job_Id为:job_201207121738_0001

  * $ hadoop job -kill job_201207121738_0001





收藏 推荐 打印 | 录入: | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款