你好,游客 登录
背景:
阅读新闻

Hadoop使用 MapReduce排序思路、全局排序

[日期:2015-01-20] 来源:IT165收集  作者:IT165收集 [字体: ]

  本文主要讲对key的排序,主要利用hadoop的机制进行排序。

  1、Partition

  partition作用是将map的结果分发到多个Reduce上。当然多个reduce才能体现分布式的优势。

  2、思路

  由于每个partition内部是有序的,所以只要保证各partition间有序,即可保证全部有序。

  3、问题

  有了思路,如何定义partition的边界,这是个问题。

  解决办法:hadoop提供了一个采样器帮我们预估整个边界,以使数据的分配尽量平均

  引用:http://stblog.baidu-tech.com/?p=397

  2. Hadoop应用实例:大规模数据的排序

  Hadoop平台没有提供全局数据排序,而在大规模数据处理中进行数据的全局排序是非常普遍的需求。大量的将大规模数据任务切分成小数据规模的数据处理任务都必须先将大规模数据进行全局排序。例如处理两组大的数据集的属性合并,可以对两组数据进行全局排序然后分解成一系列小的二路归并问题实现。

  2.1应用hadoop进行大规模数据全局排序的方法

  使用hadoop进行大量的数据排序排序最直观的方法是把文件所有内容给map之后,map不做任何处理,直接输出给一个reduce,利用hadoop的自己的shuffle机制,对所有数据进行排序,而后由reduce直接输出。

  然而这样的方法跟单机毫无差别,完全无法用到多机分布式计算的便利。因此这种方法是不行的。

  利用hadoop分而治之的计算模型,可以参照快速排序的思想。在这里我们先简单回忆一下快速排序。快速排序基本步骤就是需要现在所有数据中选取一个作为支点。然后将大于这个支点的放在一边,小于这个支点的放在另一边。

  设想如果我们有N个支点(这里可以称为标尺),就可以把所有的数据分成N+1个part,将这N+1个part丢给reduce,由hadoop自动排序,最后输出N+1个内部有序的文件,再把这N+1个文件首尾相连合并成一个文件,收工。

  由此我们可以归纳出这样一个用hadoop对大量数据排序的步骤:

  1) 对待排序数据进行抽样;

  2) 对抽样数据进行排序,产生标尺;

  3) Map对输入的每条数据计算其处于哪两个标尺之间;将数据发给对应区间ID的reduce

  4) Reduce将获得数据直接输出。

  这里使用对一组url进行排序来作为例子:

  

  这里还有一点小问题要处理:如何将数据发给一个指定ID的reduce?hadoop提供了多种分区算法。这些算法根据map输出的数据的key来确定此数据应该发给哪个reduce(reduce的排序也依赖key)。因此,如果需要将数据发给某个reduce,只要在输出数据的同时,提供一个 key(在上面这个例子中就是reduce的ID+url),数据就该去哪儿去哪儿了。

  2.2注意事项

  1) 标尺的抽取应该尽可能的均匀,这与快速排序很多变种算法均是强调支点的选取是一致的。

  2) HDFS是一种读写性能很不对称的文件系统。应该尽可能的利用其读性能很强的特点。减少对写文件和shuffle操作的依赖。举例来说,当需要根据数据的统计情况来决定对数据的处理的时候。将统计和数据处理分成两轮map-reduce比将统计信息合并和数据处理都放到一个reduce中要快速的多。

  3. 总结

  Hadoop实际是一种以数据为驱动的计算模型,结合MapReduce和HDFS,将任务运行在数据存放的计算节点上,充分利用了计算节点的存储和计算资源,同时也大大节省了网络传输数据的开销。

  Hadoop提供了简便利用集群进行并行计算的平台。各种可以隔离数据集之间相关性的运算模型都能够在Hadoop上被良好应用。之后会有更多的利用Hadoop实现的大规模数据基础计算方法的介绍。





收藏 推荐 打印 | 录入: | 阅读:
相关新闻       MapReduce  MapR  R 
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款