你好,游客 登录
背景:
阅读新闻

九个最适合实时数据分析的应用领域

[日期:2016-08-10] 来源:51CTO  作者:核子可乐译 [字体: ]

  如今整个商业世界都面临着新的难题,即如何处理来自各客户接触点、交易以及互动对象的大量数据。但与此同时,我们也看到了解决问题的曙光——实时数据流技术,其能够存储大量数值及历史数据,以备日后随时调用。

  可能很多朋友还没有接触过大数据分析方案,也有人认为其仅仅算是个愿景而非现实——毕竟能够证明其可行性与实际效果的案例确实相对有限。但可以肯定的是,实时数据流中包含着大量重要价值,足以帮助企业及人员在未来的工作中达成更为理想的结果。

  实时分析用例

  众多行业及工作都能够从数据流处理方案中获得助益。数据流能够通过管理数据实时变化迅速建立起形势判断,并帮助企业以最快速度收集来自传感器(包括GPS与温度计等)、摄像头、新闻消息、卫星、股票行情、网络爬虫、服务器日志、Flume、Twitter、传统数据库甚至是hadoop系统的数据,最终将其转化为能够提升企业业绩的决策工具。

  话虽如此,但实时数据分析结论带来机遇的同时也充满挑战,意味着管理层或者负责人员需要采取准确的数据提炼模式才能将其转化为可靠的决策依据。一般来讲,实时数据分析方案需要立足于专业知识并配合业务洞察力,方能真正实现最优决策与响应提速。而且更重要的是,分析结论除实时性质之外还需要被确切交付至相关者手中。

  医疗卫生与生命科学:

  ·ICU监控 – 高效监控机制,主动及时关注重症监护病人。

  ·远程医疗监控 —远程医疗监控能够简化医护人员访问并分析病患医疗记录的流程,从而确保病人得到有效诊疗并降低不必要的成本。

  ·临床试验与医疗设备数据 — 临床数据流分析能够顺利识别出异常或者预料之外的行为或者表现,从而辅助做出更准确的诊断意见。换言之,其有助于检测疾病的早期迹象,识别多名病患间的关联性并量化特定治疗手段的实际功效。

  ·疫情预警系统 — 实时传感器数据分析有助于检测传染病的暴发可能性,并通过早期预警系统提示预防及准备。

数据分析

  图1 生命科学

  保险业

  ·欺诈检测

  ·提升案例管理效率

  ·检查策略针对性

  ·策略绩效评估

  ·更好地预测未来走向,并据此做出产品设计、开发与交付

  ·对产品价格做出细化区分

  ·根据当前销售趋势做出销售预测分析

  ·通过实时尽职性调查剔除不合格保险案例

  电信运营商

  电信运营商能够深入了解客户行为并提供定制化服务(例如基于位置的服务、优惠政策及产品建议等),并分析客户的忠诚度、喜好及需求变化趋势。以此为基础,运营商将能够改进计费标准、提升服务质量、改善安全性并控制欺诈活动。

  能源行业

  ·实时数据分析在能源行业中的一大典型案例在于智能化电网。其将以实际使用情况为基础显著提升能源供应效率。

  ·根据特定条件预测设备活动。

  ·检测多设备阈值级别以降低故障影响。

  ·通过对勘探及生产数据的实时分析降低现场人员的工作风险。

  电子商务

  ·客户分析

  ·购买建议

  ·根据社交媒体情绪分析控制事故或进行修正

  运输行业

  ·通过GPS实现实时追踪

  ·智能化交管方案以降低高峰时段的路线拥堵情况

  ·即时与自动远程信息处理,实现车辆联网

  投机市场

  ·情绪分析

  ·动量计算

  ·天气对股市及股票价格的影响

  ·极低延迟实现市场数据分析

  执法领域

  图2 执法

  执法

  ·智能警务(传感器、闭路电视安装并接入中央云数据库、车牌识别、语音识别、犯罪嫌疑人及罪犯GPS追踪等)

  ·监控并识别异常活动、行为或事故,旨在加快决策制定速度并防止及减少犯罪事件

  ·刑事调查

  ·监控各执法机构及公众间交互

  技术领域

  ·网站流量分析与参与(最常浏览页面、浏览时长最高页面、访客行为及用户导航模式等)

  ·移动应用——下载、会话、偏好、交易、使用模式等,有效分析客户行为并设计服务以提升使用感受

  实时数据处理的挑战所在

  实时事件/交易/交互数量每秒以百万计,由此产生的数据自然会给数据流处理系统造成巨大的压力。即使数据已经收集完成,系统仍然需要具备强大的能力以并行处理这些数据。之后是进行事件关联,旨在帮助我们从数据中提取有价值信息。除此之外,整套系统还需要具备容错性与分布式设计——这意味着系统需要拥有低延迟水平以及速度更快的计算机制以完成实时响应任务。

  如何实现

  为了满足以上各项苛刻条件,我们需要将大量工具加以结合。其中Apache Kafka负责收集数据流,并通过Apache Storm或者Apache Spark(基于具体系统需求)将其路由至HIVE/HDFS,接下来由分析引擎提取结论并将其发送至仪表板。

  如何简化实现流程

  来自任何来源的数据都会由Kafka集群负责收集与暂时存储,而Zookeeper——>中继——>主题分类机制则随即跟上。而后其会通过Storm或者Spark被发送至HIVE/HDFS,并由后者再传递至分析引擎(例如SAS VA)——这一切都以实时方式完成,结论则被推送至仪表板供用户理解及据此行动。

  最后,为了充分发挥实时数据分析的潜能,企业之间还需要通力协作。大数据领域的经验证明,合作伙伴之间的配合是实现分析的前提条件。最后,各合作伙伴还需要广泛接触各垂直行业,从而理解其中的具体业务及错综复杂的相关要素。

  因此,选择理想的合作伙伴亦左右着实时分析项目的最终命运。

  总结

 

  多数企业都拥有大量最终用户接触点,而当下对此类组织以及政府机构而言可谓决定性时刻。通过即时了解当前状况,各组织机构将能够让自己的工作更加富有成效——而实时数据分析方案则给了它们一个将理想转化为现实的选项。





收藏 推荐 打印 | 录入: | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款