你好,游客 登录
背景:
阅读新闻

如何保证Hadoop数据湖不变成“数据洪水”

[日期:2016-07-11] 来源:中关村在线  作者: [字体: ]

  数据湖的提出距今已经有了几年时间了,特别是在当今时代中,基于hadoop建立的数据湖在大数据处理中占有的位置越来越重要。但是如何保证数据湖不像南方水灾一样泛滥,依然是一个耐人寻味的话题。

  数据湖已满,如何防泛滥

  数据湖洪水泛滥

  数据湖十分灵活,同时具备可扩展和低成本的特点。其最初建立的目的十分简单,就是将所有形式的数据集中在同一处,这些数据包括了结构化数据、非结构化数据以及半结构化数据。这些数据可以是日志文件、点击流、邮件、图像、音频视频或者文本文件。

blob.png

  数据湖中数据类型繁杂

  在这些数据中,非结构化和半结构化数据占据了很大一部分,但是由于我们的处理能力不同,一些数据可能在数据湖中存储了很长时间而不能被处理掉,这样就会一直积攒下来保留的现在。

  诚然,数据湖可以帮助处理各种形式的数据,这其中以结构化数据为主。而且数据湖具备数据库的大部分特质,可以提供数据查询、结构化数据处理报告等业务。数据湖的最大价值在于数据利用、探索大数据的价值,预测未来结果并为企业提出相关建议,进而指导企业的进一步决策和行动。

如何保证Hadoop数据湖不变成“数据洪水”

  “数据洪”一触即发

  但是,问题也就发生在这里。因为基于Hadoop部署的数据湖的能力并不足以应付一切,而用户对数据湖又疏于管理。数据量随时间而增加,数据湖开始泛滥,进而有逐步发展成洪水的趋势。数据不能得到有效的分配,“数据洪”随时可能冲溃堤坝,水漫金山。

  抗洪还得靠管理

  那么数据湖要如何才能避免成为数据洪的悲剧呢?首先应该从根本上改变传统对数据湖的看法。把数据湖当作一个整体库存来管理是存在问题的,对于管理人员来讲,基于数据类型需要把数据湖分成一个个的区,分别处理管理。

blob.png

  基于Hadoop的数据湖需要分类

  基于Hadoop的数据湖的区域划分归类对其而言十分重要。管理者需要对其需要提取的数据进行原始数据的保留,并且对其进行元数据标记,标明数据源、数据类型等。当被提取的数据处理完毕之后要对其统一规划并进行后续处理。

  如果用户需要选择一些特定应用程序的数据,那么可以通过收集、转换,将来自不同数据源的数据全部带走并进行处理。最后,在处理工作完成后可以通过数据轨迹、处理日志等工具对处理过程进行审核,保障数据处理的完成度。

  数据分类管理

  这些问题说起来简单,但是做起来却是一件相当麻烦的事情。这要求企业拥有一套十分成熟的数据提取工具,用于数据转化、分类、标记以及其他任务。

  而且不仅仅是企业关注这一问题,在Apache的Hadoop社区也有好多团队在致力于开发此类工具。事实上,此类工具更趋向于数据管理专业,这些对于企业来讲并不熟悉。而好消息是,一些相关的生态链已经在Hadoop领域开始形成,相信解决数据湖管理难题的工具将在不久后出现。

  本文来源:中关村在线





收藏 推荐 打印 | 录入:elainebo | 阅读:
本文评论    (0)
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款