- 目录
-
第1篇 大数据开发工程师职位描述与岗位职责任职要求
职位描述:
工作职责:
1、根据业务需求进行数据模型的调研、设计、开发及验证工作,并持续进行模型的优化;
2、负责数据模型架构的构建,建立数据抽取、清洗、校验等数据加工流程规范及olap多维数据分析模型;
3、持续对系统的技术架构进行改进和优化,提升海量数据的查询性能和用户体验。
任职资格:
1、统招本科或以上学历,计算机、数据挖掘等相关专业,工作至少3年以上;
2、熟悉java开发,有脚本语言(shell,python)开发经验者优先;
3、至少熟悉一种大数据处理技术,如hadoop、spark;
4、掌握hbase、redis、elastic search等开源大数据存储技术,并能结合不同的业务场景深入使用;
5、精通sql,精通mysql、oracle、sql server等一种大型数据库,以及数据库的维护和优化。
6、熟悉常用java web开发框架,如:spring、mybatis等;
7、熟悉多线程编程,并对java自带线程池有一定研究;
8、对解决具有挑战性的问题充满激情,具有良好的分析问题和解决问题的能力。
第2篇 大数据开发工程师/架构师职位描述与岗位职责任职要求
职位描述:
1、8年以上后端开发经验,有大数据处理经验;有实时处理工作经历并有一定解决方案者优先;
2、熟悉大数据开源技术,包含(不限于)hadoop/spark/storm/hive/hbase/impala /flume/kafka/solr/es分布式框架/计算/存储/检索等相关技术,并有一定的hadoop生态系统运维经验;
3、至少掌握java/scala/python其中一门开发语言;
4、掌握sql,sparksql进行数据开发;较好的sql性能调优经验;
5、优秀的分析、解决问题能力,充分的数据敏感度;有一定的高性能支撑经验和故障排除能力;
6、具备强烈的工作责任感,喜欢钻研,态度乐观,团队意识强。
第3篇 数据开发工程师-olap方向职位描述与岗位职责任职要求
职位描述:
工作职责:
1、负责 olap 引擎核心模块的开发工作,保障平台的稳定和可靠;
2、负责各开源 olap 引擎的二次开发、性能调优和疑难问题解决。
任职资格:
0、计算机,数学等计算机相关专业,本科及以上;
1、学习能力和编码能力,对大数据技术有钻研热情;
2、熟悉分布式系统,有良好的java基础;
3、熟悉hadoop生态圈大数据组件,参与开源社区者优先;
4、有使用 hadoop、hdfs、hbase、allu_io、druid、es、hive、spark、yarn、mapreduce、kafka、flink、presto 等经验。
第4篇 bi数据开发工程师职位描述与岗位职责任职要求
职位描述:
岗位职责:
1. 负责数据bi系统的整体工作,包括对接需求、架构设计、项目研发、性能调优等
2. 负责数据仓库的日常运维工作,包括环境维护、采集数据、安全存储等
任职要求:
1. 计算机相关专业大专以上学历,3年以上大数据相关的工作经验
2. 具备据库系统的基本理论知识,至少熟悉一种传统的数据库产品如mysql等,并熟练使用sql语句
3. 掌握hadoop、hive、mapreduce、spark等大数据相关技术,熟练使用hql了解其原理并可完成调优工作
4. 熟悉linu_操作系统,熟练shell编程
5. 至少掌握python、java其中一种
6. 熟悉数据收集工具,如logstash、flume、kafka等
7. 熟悉主流的nosql数据库系统,如mongodb等
8. 有责任心,能承受一定的工作压力,有良好的沟通能力和团队合作能力
9. 工作积极主动,能独立分析和解决问题
第5篇 高级大数据开发工程师职位描述与岗位职责任职要求
职位描述:
岗位职责:
1. 基于公司大数据产品进行数据开发,包括数据的采集,清洗,预处理,存储,建模,分析挖掘等
2. 根据业务用户需要分析数据,提供数据支持
3. 参与公司大数据产品的运维和监控,保障数据质量和服务稳定性
任职要求:
1. 具备本科以上学历, 计算机, 软件以及相关专业, 5年以上大数据开发经验
2. 熟悉数据仓库维度建模, 并能根据客户需求进行数据开发, 向模型更新数据
3. 使用过至少一种以上的etl工具
4. 熟练掌握java, 对hadoop相关的技术和组件(hdfs, mr, hbase, hive, spark, storm, kafka等)有全面深入了解
5. 熟练掌握shell或者python中的一种
6. 具备spark开发经验者优先
7. 具备实时计算(kafka+storm/spark streaming) 经验者优先
8. 具备数据分析和数据挖掘方面经验者优先
第6篇 大数据开发工程师(面向2020年毕业生)职位描述与岗位职责任职要求
职位描述:
此岗位面向2020年毕业生,坐标深圳南山科技园,实习期薪资为3.5-4.5k;要求在公司全职实习半年以上,实习满3个月且评审通过后可签订三方协议,实习满6个月且评审通过后签订劳动合同,无试用期。
岗位职责:
1、从事大数据分布式存储/应用服务的设计和开发,挑战大规模、高并发、易运维的分布式系统设计构建;
2、参与负责大数据运营/风控/分析等数据应用产品开发迭代,包括需求讨论需求/系统/算法的讨论、设计及实现;
3、定位和解决集群组件如spark、hive、hbase、kafka的性能和高可用问题,协助集群监控系统的开发。
任职要求:
1、2020年统招本科及以上学历,计科类相关专业;
2、良好的计算机基础;了解面向对象和设计模式,了解 spring , mybatis 等常用框架,数据库基础扎实;
3、对技术有强烈的兴趣,喜欢钻研,具有良好的学习能力、沟通和团队合作能力。
加分项:
1、熟悉python、ruby等语言;
2、熟练掌握常见linu_ shell命令;
3、喜欢在mac/linu_下进行开发;
4、有代码洁癖,看到代码中的坏味道有浑身不自在的感觉;
5、自我驱动、喜欢coding。
第7篇 hive数据开发工程师职位描述与岗位职责任职要求
职位描述:
1、大学专科3年以上工作经验,计算机相关专业;
2、至少2年大数据类项目数据开发支撑经验;
3、熟悉hadoop相关技术,深刻理解mr原理和过程;
4、精通hive sql,掌握基本的hql优化技能;
5、良好的服务意识和积极的沟通能力;
6、熟悉电信运营商业务,具备运营商项目驻点支撑经验优先。
第8篇 大数据开发工程师-spark职位描述与岗位职责任职要求
职位描述:
岗位职责:
1. 参与公司大数据产品规划,大数据处理分析平台的设计;
2. 负责数据分析、加工、清理、处理程序的开发;
3. 负责数据相关平台的搭建、维护和优化。
4. 负责基于hadoop/spark/hive/kafka等分布式计算平台实现离线分析、实时分析的计算框架的开发;
职位要求:
1. 熟悉java和scala语言、熟悉常用设计模式、具有代码重构意识;
2. 熟练使用hadoop、hbase、kafka、hive、spark、presto,熟悉底层框架和实现原理;
3. 使用spark streaming和spark sql进行数据处理, 并具有spark sql优化经验;
4. 熟悉mysql数据库性能优化方法, 了解常见no-sql数据库;
5. 有大规模hbase集群运维经验或对hbase存储原理熟悉者优先;
6. 有数据挖掘、数据分析、机器学习研发实践经验者优先。
有机会接触千亿级海量数据的离线和实时的数据处理,涉及java,spark,hive,spark streaming,hbase,elasticsearch,flink等大数据的前沿技术和多云的统一架构。
第9篇 大数据开发工程师(数据分析、信息安全、前端开发、数据对接)职位描述与岗位职责任职要求
职位描述:
数据分析工程师:
岗位职责:
1、负责结构化数据和文本的数据处理、建模、分析等工作,如:数据清洗、中文分词、情感分析、文本分类等;
2、负责数据需求的收集、整理和分析,配合其他同事完成结构化数据和文本的需求分析;
3、负责分析结果的可视化展现;
4、负责核心算法的设计与优化。
任职要求:
1、全日制本科毕业;
2、计算机或数学或软件类或统计相关专业;
3、熟悉数据挖掘和文本挖掘的理论基础,掌握统计模型、机器学习相关原理;
4、熟悉r/python/java等编程语言,熟悉常用数据结构和算法,熟悉正则表达式的使用。
web前端开发工程师:
岗位职责:
1、负责前端框架设计及组件库开发、前端开发工作统筹;
2、与后端工程师紧密配合,高效率、高质量地完成页面展现研发工作;
3、负责对产品页面性能的优化和维护;
4、负责数据可视化图表显示。
任职要求:
1、本科及以上学历,专业不限。3年以上前端开发经验;
2、精通html5/css3、_html/_ml,熟悉页面架构和布局,对表现与数据分离、web语义化等有深刻理解;
3、在多浏览器兼容性问题及css/javascript性能优化方面有一定的经验;
4、熟练掌握至少一种前端框架及工具、库。如jquery、angular、webpack;
5、有echars、highcahrts、d3js等数据可视化框架开发经验优先。
信息安全架构工程师:
岗位职责:
1、 规划车联网安全架构,不断完善车联网产品的安全规范和要求,跟进、解决存在的安全隐患;
2、 对上线前的软件或者车上产品进行安全方面验证及测试;
3、 跟进最新漏洞的研究工作,理解漏洞的原理,编制漏洞研究报告和防范措施;
4、 负责行业/国家车联网汽车网络安全部分的技术及标准规范的研究工作。
任职要求:
1、本科以上学历,信息安全,计算机,通信等相关专业;
2、 拥有网络安全专业技能,熟悉车载网络架构,模块及协议;
3、 熟悉常见网络/车辆安全漏洞,掌握漏洞原理以及解决方案具备独立开展渗透工作的能力;
4、 熟悉常见黑客攻击手法,具备对黑客行为的入侵检测能力;
5、 精通安全测试框架,理解网络,应用,数据等不同层面的安全。
数据对接工程师:
岗位职责:
1、负责内部系统的对接工作;
2、第三方平台的数据对接及程序维护;
3、负责各车型的数据采集要求整理及规划;
4、熟悉数据结构和常用算法,有良好的代码规范,能对接入数据/系统提出优化方案。
任职要求:
1、 本科以上学历,信息化项目,计算机,无线传输等相关专业;
2、拥有信息化相关技能,熟悉系统间的交互对接流程;
3、熟悉数据库的管理及查询、同步工作;
4、熟悉信息对接的方式,能用api、视图等进行对接工作。
第10篇 健康科技中心-高级大数据开发工程师职位描述与岗位职责任职要求
职位描述:
职位描述:
1. 基于hadoop生态系统进行大数据平台建设;
2. 负责各业务条线相关指标数据的数据建模
3. 负责基于sqoop,hive、spark、sparksql、mysql进行大数据开发
4. 负责离线运算、实时计算平台项目的设计、开发及运维
5. 负责对数据平台进行性能调优
任职要求:
1.统招本科或以上学历,6年以上大数据开发工作经验;
2.熟练掌握shell、python开发语言;
3.熟练掌握hadoop、hive、hbase、spark、spark sql、storm、sqoop、kafka、flume、sparkmlib等分布式框架原理,有相关的调优、运维、开发经验;
4.熟练掌握mysql数据库集群;
5. 精通主流etl开发工具,如:informatica、data services、kettle;精通主流调度工具,如:azkaban, oozie;
6.有数据仓库、分析系统、用户画像等产品开发经验者优先;
7.有较强的数据和业务结合能力;
8.有医疗或者大健康背景优先;
9.有较强的独立、主动的学习能力,良好的沟通表达能力。
第11篇 数据开发工程师/python/c++(p6-p7)3职位描述与岗位职责任职要求
职位描述:
职责描述:
'负责内部数据分析平台建设;
开发数据分析算法,提升计算效率和准确率;
对平台进行运营,满足用户需求。'
任职要求:
'计算机相关专业本科及以上学历,3年以上工作经验;
精通python, c/c++开发,熟悉的常见的设计模式;
精通spark,hadoop,es 等大数据平台的原理,做过大数据分析平台项目,对性能调优有经验;
熟悉mysql,postgresql,mogodb,redis等数据管理系统;
拥有良好的发现、分析与解决问题的能力,责任感强、具有团队精神与服务意识;
具有良好的学习能力,对互联网的新技术有很强求知欲望。'
第12篇 后端数据开发工程师职位描述与岗位职责任职要求
职位描述:
职责描述:
1. 配合产品经理,参与数据平台发展各阶段产品需求分析和功能设计;
2. 基于确定的产品功能需求,参与平台后端系统架构设计、接口定义实现及测试、构建部署和运维等各阶段工作;
3. 根据产品或技术实现发展需要,按需进行一些新技术的研究,并评估将其引入现有平台实现的可行性。
任职要求:
1. 本科及以上学历,至少3年及以上的实际开发经验;
2. 熟练掌握c/c++/python/java/go/javascript其中至少2种及以上程序设计语言,并且自认为具有良好的编程素养;
3. 熟练掌握常用的数据结构及算法;
4. 熟悉linu_系统开发,熟悉网络编程、文件系统,有分布式系统开发经验;
5. 应具有熟练的技术领域相关的英文文献阅读能力;
6. 有良好的沟通能力和团队合作能力,能够自主驱动,具备良好的问题定位分析能力。
优先考虑:
1. 熟悉containerization和virtual machine平台和相关技术,熟悉docker、kubernetes和kvm等,并具有相关的实际运用经验;
2. 熟悉当前主流的云计算平台,如应熟悉aws、azure和阿里云其中至少一种平台的iaas,并具有相关的项目经验;
3. 有开源项目实际参与经验。
第13篇 大数据开发工程师岗位职责职位要求
职责描述:
岗位职责:
1、运用大数据分析工具和技术解决风险管理业务中遇到的实际问题与需求,如风险评估、成长评价等,包括对模型进行设计、开发、验证、测试、部署及监控、优化。。
2、基于海量用户数据和特征,进行数据质量检查、特征加工、数据清洗等,建立数据挖掘模型。
3、评估数据源的质量和价值,能结合业务需求和场景,从各种数据维度中挖掘数据价值,并设计不同的模型,应用于不同的业务场景中。
职位要求:
1. 计算机、统计学相关背景,熟悉常用各类机器学习算法的原理(如逻辑回归、决策树、svm、神经网络、随机森林、深度学习等);
2.熟练使用sas、r、python等至少一种分析工具;
3.熟悉大数据分析平台和工具,如hive,hadoop, spark等优先;
4.有较强的逻辑思维能力、优秀的沟通表达能力及团队合作能力。
岗位要求:
学历要求:本科
语言要求:不限
年龄要求:不限
工作年限:5-7年经验
第14篇 oracle 数据开发工程师职位描述与岗位职责任职要求
职位描述:
工作职责:
1. 数据仓库和业务数据集市建设
2. 业务模型抽象、数据模型设计开发
3. 支持业务的数据需求,跟pm一起完善业务的数据分析体系和工具
4. etl、数据应用和服务的设计开发
5. 积累数据生产、分析工具,不断提高数据生产效率
6. 实时数据仓库设计、开发与服务
岗位要求:
1. 快速的业务学习和理解能力,有良好的自驱能力,对工作充满热情
2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,熟悉多维数据模型设计
3. 具备大型数据仓库架构设计、模型设计、etl设计的相关经验
4. 精通oracle数据库技术,深刻理解数据库/oracle特性,有过硬的sql能力,能编写高性能的数据处理程序。
5. 具备hadoop、hive、hbase,spark等大数据技术背景,并具有开发经验者优先
6. 具备海量数据处理经验者优先
第15篇 大数据开发工程师 [数仓方向]职位描述与岗位职责任职要求
职位描述:
工作职责:
1、使用etl工具(如sqoop、kettle)进行数据加工、清洗等流程;
2、根据业务需求,进行数仓日常数据分析、数据报表开发;
3、使用hive进行数据处理,及数据模型构建;
4、具备良好的分析问题和解决问题的能力;
5、具备较强的沟通能力和逻辑表达能力,具备良好的团队合作精神和主动沟通意识;
任职要求:
1、计算机相关专业本科及以上学历;
2、熟练使用sql(mysql / oracle);
3、熟练数据库/数据仓库分层设计、宽表设计、星型模型设计等;
4、熟练etl工具、sqoop、kettle、spark等;
5、熟悉hadoop、hive、hdfs等常用大数据组件;
6、有互联网业务分布式数据仓库、cube、大数据数据分析等相关经验者加分;