-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
-
岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
-
职位描述工作内容:1、负责公司级的通用数据平台,服务全公司的产品线2、负责YARN、Hive、Spark、Flink平台维护及二次开发3、负责公司自研调度系统维护以及接口开发4、负责公司大数据集群、执行引擎、平台的优化和运维工作职位要求:1、熟悉一种以上开源大数据工具框架, 包括担不限于YARN、Mapreduce、Hive、Spark、Flink、Presto等;2、强悍的编码能力,生产环境快速定位问题能力,对新技术有强烈的学习热情;3、三年以上java、大数据维护开发经验,有spark streaming,flink实时任务开发经验者优先考虑。4、做事严谨踏实,责任心强,条理清楚,善于学习总结,有良好的团队合作精神和沟通协调能力。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
大数据平台工程师
[上海·陆家嘴] 2023-03-1050k-100k·15薪 经验3-5年 / 本科软件服务|咨询,IT技术服务|咨询,人工智能服务 / 不需要融资 / 50-150人岗位职责:负责公司数仓的搭建,包括大数据存储的技术选型,框架制定和开发管理;负责公司数据质量管理,包括数据清洗,查错等流程的制定和自动化治理;负责对接第三方数据源和公司对新数据的需求。任职要求:3年以上数据分析挖掘等相关工作经验以及数据仓库开发经验,处理过数百TB级以上结构化和非结构化数据的存储、读写问题;熟练使用SQL,Python,Spark,Hadoop等分析软件或框架;拥有数仓建模、ETL数据抽取、报表开发、任务调度等经验;有项目管理经验者优先;熟悉金融数据者优先。 -
**招聘职位:大数据研发工程师(上海、成都、深圳)** **岗位职责:** 1. 负责多种云产品的内核开发与维护,解决客户使用过程中碰到的各种问题。 2. 参与大数据平台的部署、运维和优化,保障平台的高可用性、稳定性和性能; 3. 制定并完善大数据平台监控、报警及自动化运维工具,确保系统健康; **任职要求:** 1. **计算机相关专业本科及以上学历**,具有扎实的计算机基础,熟悉数据结构和算法; 2. 对至少一种主流大数据框架(如 Spark、Flink、Hive、Hadoop、Iceberg、Paimon 等)的源码有深入理解,能够分析并优化其内部实现; 3. 具备大数据平台 SRE 能力,熟悉容器化技术(如 Docker、Kubernetes),能够实现大数据服务的容器化部署和管理; 4. 优秀的问题分析和解决能力,善于快速定位并解决复杂系统问题; 5. 加分项:有开源项目贡献经验 **我们提供:** - 有竞争力的薪资和福利; - 广阔的技术发展空间和成长机会; - 开放、创新的团队氛围;
-
岗位职责: 1.负责大数据平台的设计与应用功能开发; 2.基于业务诉求,主导系统设计架构工作,负责实时计算系统的研发工作; 3.结合现状,推动业务平台技术迭代,提升系统性能; 4.思路清晰,可快速响应数据处理的需求,评估并给出合理的解决方案,并采用合理的方式处理需求; 5.积极主动,能够与团队成员进行有效沟通,并完成数据处理结果的核对与对接; 6.负责前沿或关键技术的研究,完成服务性能优化; 7.完成上级交办的工作或任务。 岗位要求: 1.****及以上,计算机软件类专业对口,本岗位1年及以上工作经验; 2.精通大数据Hadoop体系的相关技术:Spark、Hive、HВase, Spark Streaming / Flink、Redis,Kafka ; 3.熟悉 JAVA/Scala编程,具备良好的编程能力; 4.熟悉 Linux 操作系统, Shell 编程等; 5.了解数据仓库建模,熟悉etl设计开发; 6.熟悉知识图谱和向量数据库。
-
岗位职责: 1、负责公司大数据平台(采集/加工/调度等)建设,承担相关服务、平台的研发、集成和运维工作,工作中主要使用python; 2、保障应用系统稳定可靠,熟练运用合适技术对复杂场景做出合理技术设计,保障和提升数据平台相关系统的性能和稳定性; 3、工作范围涉及包括但不限于:分布式任务调度系统,数据采集系统,数据加工处理平台,数据应用服务等领域。 任职要求: 1、本科及以上学历,具有2年以上大数据平台应用系统开发及运维经验; 2、拥有扎实的计算机基础和代码能力,具备良好的编码习惯,有较强的问题处理能力; 3、熟悉常见大数据处理/分析相关的工具/框架,如Hive、Spark、Presto、Kafka、Clickhouse、Superset等; 4、具备良好的理解能力,能快速理解业务背景,具有良好的团队沟通与协作能力。
-
工作职责: 1. 负责大数据消息服务如 Kafka 集群优化,运维、部署、管理; 1. 参与大数据基础服务如 Hadoop 、Spark 等集群运维、部署、管理与优化; 2. 负责大数据平台服务器的维护与管理,保证各集群服务器正常运行; 职位要求: 1. 熟悉 Java、Scala、Go 等一门主流语言,熟悉并发和网络编程,有良好的数据结构和算法功底; 2. 熟悉消息系统的原理和关键技术,熟悉 Kafka/Pulsar/RocketMQ 等消息产品的原理和实现,有开源社区贡献者优先; 3. 有分布式存储的使用和研发经验者优先; 4. 对云原生相关技术有一定的了解; 5. 了解大数据相关技术,如Hadoop,Spark,Hive,Flink等,有开发或者运维经验者优先; 6. 熟悉Linux常用命令; 7. 有技术热情和较强的学习能力,以及良好的沟通能力、抗压能力和团队协作能力;
-
岗位职责 1.大数据体系建设和完善。 2.负责公司数据平台项目的运行维护。 3.协助完成公司数据中台的规划与数据湖的建设,协助完成数据治理工作。 4.解决大数据平台相关技术问题。 任职要求 1.计算机相关专业本科以上学历;3年以上大数据系统开发、设计经验。 2.掌握Java / Perl /Python 中一种或多种语言,具备实战经验。 3.掌握大数据全栈架构,精通一种或多种分布式计算、存储、调度框架或工具(Yarn/Hive/MapReduce/Spark/Flink等)。 4.熟悉并精通其中一种常用的大数据技术,包括但不限于Hadoop /HBase /Flink /Spark/Doris / Druid / ClickHouse / Kylin 等。 5.对数据库中台、数据湖、数据治理,有自己的理解能并够给出合理的规划建议。 6.具备较强的Trouble Shooting能力,能独立发现问题,定位问题,对新技术有强烈的热情,能够承受一定压力,具有良好的通过协作能力 7.有金融业、信贷领域业务经验优先。
-
岗位职责 1.负责大数据平台的组件部署和运维工作,保障大数据系统系统的稳定。 2.负责对大数据资源的统计和规划。 3.参与公司产品和项目的数据仓库建设、数据模型设计、基于HSQL、UDP等的算法实现等。 任职条件 1.计算机相关专业**本科及以上学历,3年以上相关行业工作经验; 2.精通Linux系统和相关运维体系,性能优化等相关经验; 3.熟练Hadoop生态体系并有线上运维经验,包含但不限于Hbase/Hadoop/Zookeeper/Spark/Kafka/Flink/ClickHous、ElastiSearch等,能够独立部署并且运维; 4.熟练docker、 K8s部署、优化和线上运维经验; 5.具备一定的开发能力,熟练一门以上脚本语言(shell/Python等)。
-
工作职责: 1、参与设计/研发一站式大数据平台,降低数据技术使用门槛,提高数据生产效率; 2、基于多云环境,构建满足 Data&AI 链路需求的 SaaS 化产品,沉淀和输出解决方案; 3、负责大数据各计算引擎的性能分析与体系优化,提高性能和降低成本。 任职资格: 1、熟悉 Spark/Flink,Hive,Presto,Clickhouse,Tensorflow/Pytorch 等 Data&AI 开源组件; 2、丰富云上经验,熟悉 Kubernetes; 3、强悍的编码和 troubleshooting 能力,掌握Java,Python,Go等语言; 4、具备快速学习能力和结构性思维,热衷于思考和解决客户难题。
-
1)熟悉大数据平台CDH或者Apache Haoop,包括但不限于基于Hadoop/Yarn/Hive/Hbase/Spark/Impala等; 2)熟悉大数据平台安全,kerberos,sentry,ranger等; 3)具备优化集群的能力及排查问题的能力; 4)熟练使用shell,python等脚本语言并具备一定的开发能力; 5)熟悉Linux操作系统的配置、管理及优化; 6)熟悉Keepalived/Haproxy负载均衡技术; 7)了解docker/k8s更佳; 8)具备良好地沟通与表达能力,逻辑思维能力强,具备团队合作精神。