你好,游客 登录
背景:
阅读新闻

在Apache Hadoop中使用Rhino项目进行数据加密

[日期:2014-08-25] 来源:InfoQ  作者:感谢赵震一对本文的审校。 [字体: ]

  Cloudera最近发布了一条关于Rhino项目和Apache hadoop中静态数据(data at-rest)加密的新闻。Rhino项目是由Cloudera、Intel和Hadoop社区合力打造的一个项目。这个项目旨在为数据保护提供一个全面的安全框架。

  Hadoop中的数据加密有两方面:静态数据,存在持久存储器上的数据,如硬盘;传输数据,数据从一个进程或系统传输到另一个进程或系统。大部分 Hadoop组件提供了对传输数据加密的功能,但是不支持对静态数据进行加密。安全监管机构,如HIPAA、PCI DSS和FISMA,也提倡要注意数据保护和加密。

  Rhino项目为HBase 0.98贡献了关键的安全特性。它提供了数据单元(cell)级别的加密和细粒度访问权限控制的功能。

  InfoQ最近和Cloudera安全部门的产品经理Steven Ross进行了交谈,了解到了Rhino项目的更多信息。

InfoQ:Rhino项目是何时启动的?这个项目的目标是什么?

Steven Ross:为了推动一个全面的、用于Apache Hadoop数据保护的安全框架的开发,Intel在2013年早期发起了Rhino项目的倡议,并为项目制定了几个大目标:

  • 利用硬件提升加密性能
  • 为Hadoop支持企业级认证和单点登录服务
  • 为Hadoop提供基于角色的访问权限控制功能,并在HBase中支持数据单元粒度的权限控制
  • 确保对Apache Hadoop重要组件的一致性审查

InfoQ:Rhino项目是一个综合性项目。Apache Sentry也被包含在Rhino项目中。Rhino包含了哪些不同的子项目,能请你分享一些这些项目的细节吗?

SR:在2013年的夏天,Cloudera发布的开源软件成为Apache Sentry项目(孵化中)的基础。这个项目得到了Oracle、IBM和Intel工程师们的鼎力相助。Apache Sentry为Hadoop集群的数据和元数据提供了细粒度的认证支持,并且已经被一些大型企业部署在产品中。

Cloudera和Intel有着战略伙伴关系。来自两个团队的安全架构师和工程师都已重申了加速对Apache Hadoop安全功能开发的承诺。为Apache Hadoop开发出更健壮的认证机制,Rhino项目和Apache Sentry的目标是完全一致的。两家公司的安全专家的成果已经被合并在一起,并且他们现在在这两个项目上都有投入。

InfoQ:Apache Sentry是个什么样的项目?

SR:Apache Sentry(孵化中)是一个高度模块化的系统。它为存储在Apache Hadoop集群中的数据和元数据提供了细粒度的、基于角色的认证功能。

Hadoop生态圈中的项目有着各自不同的、需要单独配置的认证系统。Hadoop的灵活性使得生态圈中不同的项目(如Hive、Solr、 MapReduce,Pig)能访问相同的数据。由于每个项目的认证配置都是独立的,管理员很可能在企图保证策略一致的情况下得到不一致的、相重叠的策 略。

Sentry提供了一套集中的策略。这套策略能被应用于许多不同的访问途径。通过这个方法,Sentry解决了这个IT管理和安全上的挑战。因此,IT管理员能够对数据集进行权限设置。并且知道无论通过何种途径访问数据,这些权限控制都会得到一致地执行。

Sentry的技术细节:

Sentry通过一组特权,如SELECT和INSERT,控制着对Hive Metastore中每个schema对象的访问。schema对象是数据管理中常见的实体,例如SERVER、DATABASE、TABLE、 COLUMN和URI,也就是HDFS中文件的位置。Cloudera Search有它自己的一组特权(如QUERY)和对象(如COLLECTION)。

和IT团队已经熟悉的其他RBAC系统一样,Sentry提供了:

  • 有层次结构的对象,自动地从上层对象继承权限;
  • 包含了一组多个对象/权限对的规则;
  • 用户组可以被授予一个或多个角色;
  • 用户可以被指定到一个或多个用户组中。

Sentry通常被配制成默认不允许访问服务和数据。因此,在被划分到设有指定访问角色的用户组之前,用户只有有限的权限访问系统。

InfoQ:什么是高级加密标准新指令(Advanced Encryption Standard New Instructions,AES-NI)?它和Rhino项目有什么关系?

SR:Intel AES-NI是Intel Xeon处理器系列和Intel Core处理器系列中新的加密指令集。它对高级加密标准(AES)算法进行了改进,并提高了数据的加密速度。

当启用加密时,企业主要关心的是CPU所需的“开销”。这些“开销”会导致数据的存储和获取操作变慢。AES-NI将加密处理的工作交由专门的硬件负责。这个硬件能够更快地完成加密和解密操作,从而减小CPU的负载。

AES-NI对Rhino项目中那些加密子项目的成功起到了重要的作用。然而并没有要求使用HDFS加密的Hadoop用户必须使用Intel芯片或者AES-NI。尽管这些技术确实能在开启加密时改善加密/解密的性能,降低对系统性能的影响。

InfoQ:Rihno项目未来的路线图是什么样的?

SR:下一步,Rhino项目的大目标很可能保持不变。而其下的子项目(这些子项目通常会以两种形式存在,Apache项目或者已存在项目中的一些JIRA)有可能会逐步发展。在达到HBase细粒度安全(如上所述)的里程碑后,另两个子项目当前正在势头上:

  • HDFS静态数据的加密。
  • 统一认证:致力于提供一套强制执行的访问策略,且不关心用户访问数据的方式,不论是Hive、MapReduce或其他访问途径。这项工作正在通过Apache Sentry项目完成。

所有集成工作已经完成,整个解决方案的测试和文档编写工作也已全面完成。

Rhino项目实现了Apache Hadoop(以及其他相关的Apahce项目)一部分的子项目。CDH捆绑了Apache Hadoop和生态圈中其他相关的项目。

查看英文原文:Data Encryption in Apache Hadoop with Project Rhino - Q&A with Steven Ross





收藏 推荐 打印 | 录入: | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款