你好,游客 登录
背景:
阅读新闻

大数据环境下该如何优雅地设计数据分层

[日期:2017-07-07] 来源:PHPChina开发者社区  作者: [字体: ]

  发个牢骚,搞大数据的也得建设数据仓库吧。而且不管是传统行业还是现在的互联网公司,都需要对数据仓库有一定的重视,而不是谈一句自己是搞大数据的就很厉害了。数据仓库更多代表的是一种对数据的管理和使用的方式,它是一整套包括了etl、调度、建模在内的完整的理论体系。现在所谓的大数据更多的是一种数据量级的增大和工具的上的更新。 两者并无冲突,相反,而是一种更好的结合。

  话说,单纯用用hadoop、Spark、Flume处理处理数据,其实只是学会几种新的工具,这是搞工具的,只是在数据仓库中etl中的一部分。

  当然,技术的更新往往能领到一个时代的变革,比如Hadoop的诞生,光是深入研究一个大数据组件就要花很大的时间和精力。但是在热潮冷却之后,我们更应该考虑地是如何更好地管理和使用自己的数据。

  对于数据的从业者来讲,要始终重视紧跟技术的变革,但是切记数据为王,在追求技术的极致的时候,不要忘了我们是搞数据的。

  文章主题

  吐槽完毕,本文主要讲解数据仓库的一个重要环节:如何设计数据分层!其它关于数据仓库的内容可参考其它的文章数据仓库。

  本文对数据分层的讨论适合下面一些场景,超过该范围场景 or 数据仓库经验丰富的大神就不必浪费时间看了。

  数据建设刚起步,大部分的数据经过粗暴的数据接入后就直接对接业务。

  数据建设发展到一定阶段,发现数据的使用杂乱无章,各种业务都是从原始数据直接计算而得。

  各种重复计算,严重浪费了计算资源,需要优化性能。

  文章结构

  最初在做数据仓库的时候遇到了很多坑,由于自身资源有限,接触数据仓库的时候,感觉在互联网行业里面的数据仓库成功经验很少,网上很难找到比较实践性强的资料。而那几本经典书籍里面又过于理论,折腾起来真是生不如死。还好现在过去了那个坎,因此多花一些时间整理自己的思路,帮助其他的小伙伴少踩一些坑。

  为什么要分层?这个问题被好几个同学质疑过。因此分层的价值还是要说清楚的。

  分享一下经典的数据分层模型,以及每一层的数据的作用和如何加工得来。

  分享两个数据分层的设计,通过这两个实际的例子来说明每一层该怎么存数据。

  给出一些建议,不是最好的,但是可以做参考。

  为什么要分层

  我们对数据进行分层的一个主要原因就是希望在管理数据的时候,能对数据有一个更加清晰的掌控,详细来讲,主要有下面几个原因:

  清晰数据结构:每一个数据分层都有它的作用域,这样我们在使用表的时候能更方便地定位和理解。

  数据血缘追踪:简单来讲可以这样理解,我们最终给业务诚信的是一能直接使用的张业务表,但是它的来源有很多,如果有一张来源表出问题了,我们希望能够快速准确地定位到问题,并清楚它的危害范围。

  减少重复开发:规范数据分层,开发一些通用的中间层数据,能够减少极大的重复计算。

  把复杂问题简单化。讲一个复杂的任务分解成多个步骤来完成,每一层只处理单一的步骤,比较简单和容易理解。而且便于维护数据的准确性,当数据出现问题之后,可以不用修复所有的数据,只需要从有问题的步骤开始修复。

  屏蔽原始数据的异常。

  屏蔽业务的影响,不必改一次业务就需要重新接入数据。

  数据体系中的各个表的依赖就像是电线的流向一样,我们都希望它是很规整,便于管理的。但是,最终的结果大多是第一幅图,而非第二幅图。

大数据
大数据

  怎样分层

  理论

  我们从理论上来做一个抽象,可以把数据仓库分为下面三个层,即:数据运营层、数据仓库层和数据产品层。

  ODS全称是Operational Data Store,操作数据存储

  “面向主题的”,数据运营层,也叫ODS层,是最接近数据源中数据的一层,数据源中的数据,经过抽取、洗净、传输,也就说传说中的ETL之后,装入本层。本层的数据,总体上大多是按照源头业务系统的分类方式而分类的。

  例如这一层可能包含的数据表为:人口表(包含每个人的身份证号、姓名、住址等)、机场登机记录(包含乘机人身份证号、航班号、乘机日期、起飞城市等)、银联的刷卡信息表(包含银行卡号、刷卡地点、刷卡时间、刷卡金额等)、银行账户表(包含银行卡号、持卡人身份证号等)等等一系列原始的业务数据。这里我们可以看到,这一层面的数据还具有鲜明的业务数据库的特征,甚至还具有一定的关系数据库中的数据范式的组织形式。

  但是,这一层面的数据却不等同于原始数据。在源数据装入这一层时,要进行诸如去噪(例如去掉明显偏离正常水平的银行刷卡信息)、去重(例如银行账户信息、公安局人口信息中均含有人的姓名,但是只保留一份即可)、提脏(例如有的人的银行卡被盗刷,在十分钟内同时有两笔分别在中国和日本的刷卡信息,这便是脏数据)、业务提取、单位统一、砍字段(例如用于支撑前端系统工作,但是在数据挖掘中不需要的字段)、业务判别等多项工作。

  数据仓库层(DW),是数据仓库的主体

  在这里,从ODS层中获得的数据按照主题建立各种数据模型。例如以研究人的旅游消费为主题的数据集中,便可以结合航空公司的登机出行信息,以及银联系统的刷卡记录,进行结合分析,产生数据集。在这里,我们需要了解四个概念:维(dimension)、事实(Fact)、指标(Index)和粒度( Granularity)。

  数据产品层(APP),这一层是提供为数据产品使用的结果数据

  在这里,主要是提供给数据产品和数据分析使用的数据,一般会存放在es、mysql等系统中供线上系统使用,也可能会存在Hive或者Druid中供数据分析和数据挖掘使用。 比如我们经常说的报表数据,或者说那种大宽表,一般就放在这里。

  技术实践

  这三层技术划分,相对来说比较粗粒度,后面我们会专门细分一下。在此之前,先聊一下每一层的数据一般都是怎么流向的。这里仅仅简单介绍几个常用的工具,侧重中开源界主流。

  数据来源层–> ODS层

  这里其实就是我们现在大数据技术发挥作用的一个主要战场。 我们的数据主要会有两个大的来源:

  业务库,这里经常会使用sqoop来抽取,比如我们每天定时抽取一次。在实时方面,可以考虑用canal监听mysql的binlog,实时接入即可。

  埋点日志,线上系统会打入各种日志,这些日志一般以文件的形式保存,我们可以选择用flume定时抽取,也可以用用spark streaming或者storm来实时接入,当然,kafka也会是一个关键的角色。

  其它数据源会比较多样性,这和具体的业务相关,不再赘述。

  注意: 在这层,理应不是简单的数据接入,而是要考虑一定的数据清洗,比如异常字段的处理、字段命名规范化、时间字段的统一等,一般这些很容易会被忽略,但是却至关重要。特别是后期我们做各种特征自动生成的时候,会十分有用。后续会有文章来分享。

  ODS、DW –> App层

  这里面也主要分两种类型:

  每日定时任务型:比如我们典型的日计算任务,每天凌晨算前一天的数据,早上起来看报表。 这种任务经常使用Hive、Spark或者生撸MR程序来计算,最终结果写入Hive、Hbase、Mysql、Es或者Redis中。

  实时数据:这部分主要是各种实时的系统使用,比如我们的实时推荐、实时用户画像,一般我们会用Spark Streaming、Storm或者Flink来计算,最后会落入Es、Hbase或者Redis中。

  举个例子

  当初的设计总共分了6层,其中去掉元数据后,还有5层。下面分析一下当初的一个设计思路。

  缓冲层(buffer)

  概念:又称为接口层(stage),用于存储每天的增量数据和变更数据,如Canal接收的业务变更日志。

  数据生成方式:直接从kafka接收源数据,需要业务表每天生成。update,delete,inseret数据,只生成insert数据的业务表,数据直接入明细层。

  讨论方案:只把canal日志直接入缓冲层,如果其它有拉链数据的业务,也入缓冲层。

  日志存储方式:使用impala外表,parquet文件格式,方便需要MR处理的数据读取。

  日志删除方式:长久存储,可只存储最近几天的数据。讨论方案:直接长久存储。

  表schema:一般按天创建分区。

  库与表命名。库名:buffer,表名:初步考虑格式为:buffer_日期_业务表名,待定。

  明细层(ODS, Operational Data Store,DWD: data warehouse detail)

  概念:是数据仓库的细节数据层,是对STAGE层数据进行沉淀,减少了抽取的复杂性,同时ODS/DWD的信息模型组织主要遵循企业业务事务处理的形式,将各个专业数据进行集中,明细层跟stage层的粒度一致,属于分析的公共资源。

  数据生成方式:部分数据直接来自kafka,部分数据为接口层数据与历史数据合成。 canal日志合成数据的方式待研究。

  讨论方案:canal数据的合成方式为:每天把明细层的前天全量数据和昨天新数据合成一个新的数据表,覆盖旧表。同时使用历史镜像,按周/按月/按年 存储一个历史镜像到新表。

  日志存储方式:直接数据使用impala外表,parquet文件格式,canal合成数据为二次生成数据,建议使用内表,下面几层都是从impala生成的数据,建议都用内表+静态/动态分区。

  日志删除方式:长久存储。

  表schema:一般按天创建分区,没有时间概念的按具体业务选择分区字段。

  库与表命名。库名:ods,表名:初步考虑格式为ods_日期_业务表名,待定。

  旧数据更新方式:直接覆盖。

  轻度汇总层(MID或DWB, data warehouse basis)

  概念:轻度汇总层数据仓库中DWD层和DM层之间的一个过渡层次,是对DWD层的生产数据进行轻度综合和汇总统计(可以把复杂的清洗,处理包含,如根据PV日志生成的会话数据)。轻度综合层与DWD的主要区别在于二者的应用领域不同,DWD的数据来源于生产型系统,并未满意一些不可预见的需求而进行沉淀;轻度综合层则面向分析型应用进行细粒度的统计和沉淀。

  数据生成方式:由明细层按照一定的业务需求生成轻度汇总表。明细层需要复杂清洗的数据和需要MR处理的数据也经过处理后接入到轻度汇总层。

  日志存储方式:内表,parquet文件格式。

  日志删除方式:长久存储。

  表schema:一般按天创建分区,没有时间概念的按具体业务选择分区字段。

  库与表命名。库名:dwb,表名:初步考虑格式为:dwb_日期_业务表名,待定。

  旧数据更新方式:直接覆盖。

  主题层(DM,date market或DWS, data warehouse service)

  概念:又称数据集市或宽表。按照业务划分,如流量、订单、用户等,生成字段比较多的宽表,用于提供后续的业务查询,OLAP分析,数据分发等。

  数据生成方式:由轻度汇总层和明细层数据计算生成。

  日志存储方式:使用impala内表,parquet文件格式。

  日志删除方式:长久存储。

  表schema:一般按天创建分区,没有时间概念的按具体业务选择分区字段。

  库与表命名。库名:dm,表名:初步考虑格式为:dm_日期_业务表名,待定。

  旧数据更新方式:直接覆盖。

  应用层(App)

  概念:应用层是根据业务需要,由前面三层数据统计而出的结果,可以直接提供查询展现,或导入至Mysql中使用。

  数据生成方式:由明细层、轻度汇总层,数据集市层生成,一般要求数据主要来源于集市层。

  日志存储方式:使用impala内表,parquet文件格式。

  日志删除方式:长久存储。

  表schema:一般按天创建分区,没有时间概念的按具体业务选择分区字段。

  库与表命名。库名:暂定apl,另外根据业务不同,不限定一定要一个库。

  旧数据更新方式:直接覆盖。

  如何更优雅一些

  前面提到的一种设计其实相对来讲已经很详细了,但是可能层次会有一点点多,而且在区分一张表到底该存放在什么位置的时候可能还有一点点疑惑。 我们在这一章里再设计一套数据仓库的分层,同时在前面的基础上加上维表和一些临时表的考虑,来让我们的方案更优雅一些。

  下图,做了一些小的改动,我们去掉了上一节的Buffer层,把数据集市层和轻度汇总层放在同一个层级上,同时独立出来了维表和临时表。

  这里解释一下DWS、DWD、DIM和TMP的作用。

  DWS:轻度汇总层,从ODS层中对用户的行为做一个初步的汇总,抽象出来一些通用的维度:时间、ip、id,并根据这些维度做一些统计值,比如用户每个时间段在不同登录ip购买的商品数等。这里做一层轻度的汇总会让计算更加的高效,在此基础上如果计算仅7天、30天、90天的行为的话会快很多。我们希望80%的业务都能通过我们的DWS层计算,而不是ODS。

  DWD:这一层主要解决一些数据质量问题和数据的完整度问题。比如用户的资料信息来自于很多不同表,而且经常出现延迟丢数据等问题,为了方便各个使用方更好的使用数据,我们可以在这一层做一个屏蔽。

  DIM:这一层比较单纯,举个例子就明白,比如国家代码和国家名、地理位置、中文名、国旗图片等信息就存在DIM层中。

  TMP:每一层的计算都会有很多临时表,专设一个DWTMP层来存储我们数据仓库的临时表。

  总结

  数据分层是数据仓库非常重要的一个环节,它决定的不仅仅是一个层次的问题,还直接影响到后续的血缘分析、特征自动生成、元数据管理等一系列的建设。因此适于尽早考虑。

  另外,每一层的名字不必太过在意,自己按照喜好就好。

  本文分享了笔者自己对数据仓库的一些理解和想法,不一定十分准确,有什么问题可以多交流。

  初步估计在数据仓库方面,应该还会有三个主题分享:血缘分析、特征自动生成、元数据管理。分享完成之后,数据仓库相关的就告一段落了。

  参考:

  1.《数据仓库》

  2.《数据仓库工具箱》

  3. Winston、Ruby的指导





收藏 推荐 打印 | 录入: | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款