-
1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
-
一、岗位职责: 1、负责公司大数据平台系统与应用研发,基于大数据技术特点对数据的处理、抽取、挖掘、分析以及功能代码的实现; 2、深入理解业务逻辑,结合当前架构或业务场景提供可行性优化方案,参与数据模型体系构建、数据模型算法实现、数据主题设计 和开发,搭建实时和离线的数据公共层; 3、主导建立和维护大数据平台技术标准规范,指导开发人员编写代码,编写相关技术文档; 4、关注大数据领域前沿技术、方法,将合适的技术方案适时引入业务场景。 二、任职资格: 1、计算机科学与技术、大数据、应用数学等相关专业,本科及以上学历,5年及以上工作经验; 2、熟练掌握大数据平台(包括但不限于Hadoop、HDFS、Map Reduce等)基本原理及架构,了解大数据通用平台物理设备、网络转发、端口协议等方面的知识; 3、对大数据生态圈有深入认识,对大数据基础架构和平台底层原理有深度理解和丰富开发经验,具备Hadoop、Hive、HBase、kudu、Impala、Kafka、MapReduce、Spark、Kylin、Oozie、Sqoop、ElasticSearh等技术的熟练使用。 4、熟练掌握常见SQL、NoSQL数据库原理、数据库设计、查询编写和优化; 5、熟练掌握JAVA语言,熟悉Spring Cloud微服务架构,对JVM有了解者优先,熟悉Python更佳; 6、对数据敏感,能够通过业务模式和数据字典洞察数据规律,总结归纳数据规范; 7、具备优秀的沟通和组织协调能力,有团队意识,任务执行力强; 8、具备大数据平台运维和开发经验,能够独立升级大数据平台核心组件及相关功能者优先。 *不是外包公司,项目稳定、工作稳定。
-
岗位职责: 1. 负责大数据采集、存储、计算、分析等场景的通用架构设计和开发; 2. 负责流式数据的实时传递、清洗、转换和计算(实时统计、分析等)的设计和开发; 3. 负责大数据相关框架/工具/中间件的设计和开发; 4. 负责以上各种架构平台及相关基础技术组件的稳定性保障及源码级的bug修复; 5. 负责大数据相关解决方案的设计文档撰写。 任职要求: 1. 本科以上学历,计算机相关专业; 2. 五年以上大数据平台相关开发及架构设计经验; 3. 深入使用Java,深入理解并熟练使用Java类库及框架,如多线程、并发处理、I/O与网络通讯; 4. 对Java虚拟机有较深了解,有运行态JVM分析及调优的实际经验; 5. 熟悉Linux系统,具备Shell、Python等脚本开发能力者优先; 6. 熟悉并使用过各种大数据相关框架或组件优先,如Kafka、Storm/JStorm、Hadoop/Spark、Hive、HBase、kylin、opentsdb、redis、flume等,具备源代码级问题解决和集群优化改造能力者优先; 7. 具备丰富的数据处理和数据仓库建模的项目实践经验者优先; 8. 具有良好的语言表达和文档撰写能力,学习能力强,喜欢研究开源新技术,有团队观念,具备独立解决问题的能力; 9. 有一年以上大数据团队带领经验优先。
-
岗位职责: 1.参与数据中心建设数据存储方案制定。 2.参与数据中心数据存储能力评估。 3.负责数据中心环境维护与优化。 4.支撑数据开发人员快速完成开发工作。 个人能力: 1.有大数据存储、分析相关项目工作经验,承担核心工作。 2. 掌握与大数据处理相关的技术,包括但不限于Hadoop,Hbase,Hive等。 3. 掌握常用的的mpp数据库,包含但不限于Doris 与 ClickHouse等。 4. 掌握常用的关系形数据库,包含但不限于 sql server,oracle,mysql等。
-
岗位描述: 1、参与搭建公司的离线、实时数据仓库 2、参与批处理、流处理etl作业开发 3、对接业务需求,生产数据报表、看板、指标、画像等 岗位要求: 1、大学本科学历以上 2、有五年以上数据开发经验 3、熟练掌握spark或flink开发能力,有3年以上的开发经验 4、熟悉和掌握实时数仓的搭建,有实践经验。例如clickhouse、druid等 4、熟悉和掌握数据仓库建模,有实践经验 5、熟练使用hadoop平台,包括不限于:hdfs、flume、hive、hbase等
-
1、专科以上学历,三年以上Java/大数据开发工作经验; 2、有一定的JAVA功底,熟练掌握SpringMVC、SpringBoot、SpringCloud、Mybatis等开发框架,能够独立完成相关业务功能和接口的开发; 3、熟悉大数据平台相关组件的使用,如hadoop、hbase、elasticsearch、hive、spark、flink、ck、azkaban等; 5、熟练掌握常用的关系型及非关系型数据库,如:Oracle、Mysql、Redis、MongoDB; 6、熟练使用sql进行数据分析,对于复杂sql复杂的存储过程,能够逐步拆解能力; 7、良好的设计和编码品味,热爱技术,有较强的学习能力,有强烈的求知欲、好奇心和进取心; 8、具备良好的抗压能力、团队合作精神、有高度的工作责任心,有良好的沟通理解能力; 9、有服务端分布式开发经验/金融行业工作经验优先。 职责: 1、负责系统功能模块设计,参与系统相关项目需求代码评审、设计、编码等工作; 2、与开发负责人、产品经理等项目干系人交流沟通,完成项目需求详细设计、开发等工作; 3、对所负责的系统模块信息安全、代码质量、代码缺陷修复、新功能开发、开发任务进度工作负责; 4、制定合理的工作计划,并在执行的过程中不断监控和管理风险,消除风险,避免对项目造成不良影响; 5、跟进解决各类潜在系统的技术风险、潜在隐患,协助支持测试,能够快速定位和解决相关测试问题; 6、参与完成部分数据分析工作。
-
岗位职责: 负责大数据相关任务的设计与开发 岗位要求: 1、大专及以上学历,3-5相关工作经验; 2、深刻理解大数据处理(流计算,分布式计算,分布式文件系统,分布式存储等)相关技术和实现方法; 3、熟悉Hadoop大数据生态圈技术,精通分布式存储Hdfs,Hive,Hbase,Es等,资源调度Yarn、Oozie、Azkaban等,计算框架 Spark,Prosto,Hive,Impala等; 3、熟悉sqoop,flume,kafka等,熟悉Nifi源码优先; 4、熟悉并掌握离线和实时数据处理流程,熟练使用mapreduce,Spark,Flink处理; 5、熟练掌握springmvc、springboot开发; 6、熟练掌握Java、Scala开发,有Python语言开发经验优先; 7、熟悉Linux系统;
-
工作内容: 1. 负责高性能、高可用的大数据数据处理与分析paas软件的研发。 2. 参与包含数据集成系统、元数据管理、数据质量管理等平台的构建与维护; 3. 基于spark上用scala编程语言开发,完成相关网络安全产品的需求实现。 4.了解一定的数据挖掘算法,熟悉相关数据模型 任职要求: 1. 本科及以上学历,计算机相关专业五年以上工作经验; 2. 扎实的计算机基础,掌握常用的数据结构及算法,熟练掌握Scala/Python/go/Java 中的一项或多项; 3. 了解分布式系统、大数据平台,有完整的数据工程项目经验,具备一定的框架设计以及抽象能力; 4. 熟悉 Hadoop 生态体系,包括但不限于:Hadoop、Hive、HBase、Spark、Flink、Kafka、Beam 等; 5. 良好的团队精神以及合作意识,热爱技术,高度自驱,追求卓越,对数据敏感; 6. 对批量计算、流式计算、时序数据处理、存储引擎、资源调度等一项或多项有深入理解优先 说明:自研项目非外包,但此岗位会有出差,介意勿扰 学历最低要求本科, base上海,北京,长沙,无锡,成都均可
-
技能要求: IMPALA,Spark,Python,DB2,Oracle,MySQL 职位描述: 1、基于公司大数据平台,设计大数据相关项目的技术方案; 2、负责数据调研、数据接入、数据建模、数据清洗、数据映射、数据可视化等工作; 3、负责对数据进行分析,为项目组提供大数据技术指导及分析手段支撑,BI报表输出; 4、负责大数据平台的性能监控和持续优化; 5、针对需求提供大数据分析技术解决方案; 任职要求: 1、本科及以上学历,1-3年以上工作经验,活跃、严谨的思维,理解能力强,交流沟通无障碍; 2、熟练使用数仓、大数据工具,熟练使用SQL,熟悉Python或Java; 3、熟悉oracle,db2,hive, spark, impala, kylin, ETL等技术,能独立承担报表设计和开发工作; 4、良好的数据敏感度,能从海量数据提炼核心结果;有丰富的数据分析、挖掘、清洗和建模的经验; 5、熟悉银行业务, 丰富的BI指标体系建设经验
-
1. 了解基本的数据结构和预处理等相关算法; 2. 熟悉python和java; 3. 能用java进行后端封装 4.熟悉大数据分析相关的框架以及基本算法,特别是机器学习算法,或者深度学习算法等 5.有基于微服务部署大数据机器学习负载的经验。 6. 熟悉 Spark、Flink 等技术,熟悉 FlinkML。 7. 熟悉 ETL、SQL,熟悉 MySQL,PostgreSQL 等主流数据库 8. 了解时序数据库,了解 K8s 开发
-
岗位职责: 1.负责利用各大数据技术,进行数据中台的大数据应用开发、迭代等工作; 2.协助大数据产品经理进行供应链金融流程体系中大数据相关需求的挖掘; 3.协助大数据产品经理进行需求可行性技术分析; 4.负责数据平台的架构设计、搭建、开发工作; 5.负责分析大数据平台系统瓶颈与架构合理性,促进服务架构优化。 职位要求: 1.本科及以上学历,计算机等相关专业优先; 2.3年以上大数据相关开发项目经验; 3.熟练使用大数据相关开源工具/框架,如Hive/Flink/Spark/MQ/OLAP/数据湖/ES/KV; 4.掌握一门或多门编程语言,如Java、Python、Go等,有扎实的操作系统知识、系统性能意识,良好的代码能力; 5.有一定的分布式存储,或者大数据计算,或者分布式数据库等领域的研究和工作经历; 6.工作认真负责,对目标有自驱力,注重技术细节,能独立领导大型系统开发,有良好的团队合作精神,有大数据团队负责人角色经验者优先。
-
工作职责 1、负责雪花数据分析平台开发、维护基于Spark/Spark Streaming构建的大数据项目; 2、负责基于Spark技术的海量数据的处理、分析、统计工作; 3、负责大数据分析平台的的需求持续跟进和优化; 4、参与系统的需求分析、设计、编码、单元测试、安全测试、压力测试、BUG修复等工作; 5、保障系统后台的持续稳定运行;监控系统后台服务、接口并进行性能优化;负责系统迭代过程中的版本管理。 工作要求 1、本科及以上学历,计算机或数学相关专业; 2、具有5年及以上大数据平台设计和开发经验,具备优秀的编程能力和良好的开发习惯; 3、 熟悉Spark相关技术,至少有3年以上Spark开发经验; 4、熟悉Hive和Hbase,熟悉Scala,Java语言,有丰富的分布式编程经验; 5、 熟悉HQL和Spark SQL,对Scala原理、底层技术有深入研究者优先,有过海量数据系统开发经验者优先; 6、熟悉oracle,Mysql关系型数据库; 7、具有较强的分析、解决技术问题能力。
-
1.参与离线/实时数据仓库的需求对接、数据调研、架构设计、实施交付、关键技术攻克; 2.参与企业数据治理的需求调研、数据架构设计、方案编写、治理实施; 3.参与大数据平台、数据治理平台的研发、交付工作。 任职要求: 1.计算机、软件工程、大数据相关专业本科及以上学历,5年以上大数据开发或数据治理经验; 2.熟悉Hadoop生态及相关组件,包括但不限于Hadoop/Hive/Spark/HBase/Flink/Kafka/ClickHouse等; 3.熟悉维度建模、范式建模等数仓理论,掌握离线数仓和实时数仓相关主流技术框架; 4.掌握数据治理流程,熟悉数据标准、数据质量、元数据管理等治理方法,具有一定的文档编写能力,了解DAMA、DCMM等数据管理方法优先; 5.有良好的沟通能力和理解能力,工作主动,能够承担一定的交付压力。
-
岗位职责: 1.参与大数据、数据治理平台Web后端服务的设计、开发; 2.参与离线或实时数仓模型设计、ETL实施、性能优化、技术问题解决; 3.参与大数据、数据治理项目的客户需求对接、开发和交付。 任职要求: 1.计算机、软件工程、大数据相关专业本科及以上学历,二年以上大数据相关项目或产品开发经验; 2.熟悉Hadoop生态及相关组件,包括但不限于Hadoop/Hive/Spark/Hbase/Flink/Kafka/ClickHouse等; 3.熟悉Java/Spring Boot、Redis、ElasticSearch、数据库、gitlab等语言工具和中间件; 4.熟悉数仓建模理论,掌握离线数仓和实时数仓相关主流技术框架; 5.有良好的沟通能力和理解能力,工作主动,能够承担一定的产品和项目交付压力。 职位福利:五险一金、绩效奖金、交通补助、通讯补助、带薪年假、补充医疗保险、定期体检、节日福利
-
具备5年以上JAVA开发实际工作经验,计算机专业毕业,基础扎实; 熟悉TCP、UDP等协议通信过程,使用netty开发过自定义协议 熟悉MySQL、InfluxDB、Hadoop等数据库存储,熟练使用Maven、Git、IDEA进行开发; 熟悉分布式、RPC、缓存、消息队列、搜索等开源组件,如Zookeeper、Redis、RocketMQ、Kafka、ES等; 能够解决系统的高并发访问、海量数据处理等各种技术问题,不断进行系统建设及架构升级; 责任心强,工作积极,能主动学习,适应一定项目压力; 有数据平台或者物联网平台开发经验者优先。
热门职位