你好,游客 登录
背景:
阅读新闻

大数据开发工程师岗位分析

[日期:2017-12-27] 来源:网络大数据  作者: [字体: ]

  最近一年大数据火爆异常,各种培训班开课广告满天飞,很多做开发的朋友也想转到大数据这一行,在投递简历的时候进场被几个岗位搞迷糊,他们是大数据分析师,大数据研发工程师,大数据建模工程师,大数据挖掘工程师。我会根据前同事所在公司的相应岗位,列出岗位职责和要求,供大家借鉴。

  大数据开发工程师

  腾讯 大数据研发工程师

  职位描述:

  岗位职责:

  负责数据接入、数据清洗、底层重构,业务主题建模等工作;

  负责金融大数据整体的计算平台开发与应用;

  岗位要求:

  计算机或相关专业本科以上学历;

  有5年及以上大数据平台开发方面相关工作经验;

  熟悉数据仓库和数据建模的相关技术细节,有编程经验,熟悉JAVA语言;熟悉SQL/hadoop/Hive/Hbase/Spark等大数据工具

  具有海量数据处理经验,或有互联网行业数据挖掘工作经验者优先;

  有第三方支付或金融业务经历者优先考虑;

  顺丰科技

  职位描述:

  岗位职责:

  1、负责大数据系统的开发工作;

  2、指导协助同事解决日常工作中的问题

  3、对系统存在的问题进行跟踪和定位并及时解决;

  4、严格执行工作计划,主动汇报并高效完成任务保证部门及个人工作目标实现。

  任职要求:

  1、计算机、软件工程等相关专业,本科及以上学历,具有3年及以上Java开发经验;1年及以上互联网或大数据分析工作经验优先;

  2、 熟悉Hadoop或Spark生态相关技术,包括MapReduce、hdfs、Hive、Spark等,1个以上大数据平台项目实施经验; 熟悉Oracle或MySQL数据库技术;

  3、具有BI系统的开发实施经验,能够独立开发设计数据仓库、ETL设计、Cube建模、OLAP开发、报表开发等;一定的应用系统分析与设计能力,有良好、规范的编程习惯和文档编写习惯;

  4、有较强的学习能力,对技术有钻研精神,并有较高的热情,热衷于新技术、新理论、新开发实践的学习和实践。

  平安科技

  职位描述:

  工作年限:2年以上

  职位描述:

  1、负责hadoop/spark平台技术引进和推广,并能结合用户需求快速落地推广;

  2、负责大数据分析需求设计和开发,包括数据集市、实时分析、数据展示等的开发,并交付生产,确保输出成果;

  3、负责项目成果在公司内的推广应用、培训,以及对外对内合作交流,不断提升公司的技术和应用能力。

  招聘要求:

  1、计算机科学、应用数学、物理学等相关专业,本科以上学历;

  2、具有2年以上BI/报表相关工作经验,熟练掌握hadoop hive开发,有一定调优经验;

  3、能熟练使用sqoop等作为etl工具,有tableau/qlikview开发经验;

  4、有良好的口头和书面表达能力;

  5、良好的结构化问题解决能力。

  注:以上岗位要求国家统招学历,本科及以上学历需要有学位证书。

  横向对比

  相同的大数据开发工程师职位在不同的互联网公司,岗位职责不一样,相应的岗位要求差异也比较大。不过,核心技能要求相近:

  1. 熟悉hadoop集群

  2. 熟悉hive

  3. 熟悉Java

  4. 有一定的BI开发经验

  5. 善于沟通,善于分析(软技能,需要不断培养和提升)

  以上应该是大数据开发岗位的基本要求。因此,在面试该岗位前,首先基础技能一定要满足,然后在看岗位职责中还有哪些其他技能要求。





收藏 推荐 打印 | 录入:Cstor | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款