-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职位描述 1. 负责公司大数据业务的运行维护与底层优化,保障大数据平台服务的稳定 2. 负责大数据运维平台建设,实现大数据自动化部署系统,监控系统,巡检系统的开发 3. 负责大数据日常问题定位及故障处理 岗位要求: 1. 3年以上大数据业务维护经验。 2. 对大数据平台有比较深入的了解,熟悉一个或多个大数据组件,如:hadoop/hbase/spark/flink/hive/kafka/flume/zookeeper等,并有实际维护经验。 5. 熟悉OLAP组件Clickhouse,StarRocks等,有OLAP平台运维经验者优先。 3. 熟悉python,java,go等任意一门编程语言,能熟练编写shell脚本。 4. 熟悉linux操作系统,熟练掌握各种linux命令。 6. 有良好的沟通能力、团队协作能力。 7. 有大规模hadoop集群运维经验者优先。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1、负责大数据相关组件的架构规划、设计、运维、治理,保障平台服务的稳定性及可用性; 2、负责制定和完善大数据全链路风险评估、变更流程、运维规范、应急预案相关SRE体系建设; 3、深入参与大数据基础设施建设及性能优化,问题定位处理,; 4、负责大数据组件性能POC工作,协助解决组件技术问题。 岗位要求: 1、本科以上学历,计算机类、数学类、数据类相关专业,并有三年以上大数据领域工作经验; 2、熟悉java, go, python等至少一种开发语言; 3、深入理解hadoop大数据生态组件(Hadoop、Hive、Spark、Flink),从事过相关组件的架构设计、研发运维、性能调优或迁移工作; 4、有过组件二次开发经验或者AWS云数据仓库使用经验,加分项; 5、了解SRE方法和原则的实际经验,能够设计和执行故障演练和混沌工程,加分项; 6、具备系统化解决问题的能力,有良好的沟通能力,积极主动、自驱力强,有责任心,并且有一定抗压能力;
-
工作职责: 1. 负责公司大数据业务的运行维护与底层优化,保障大数据平台服务的稳定 2. 负责大数据运维平台建设,实现大数据自动化部署系统,监控系统,巡检系统的开发 3. 负责大数据日常问题定位及故障处理 任职资格: 1. 3年以上大数据业务维护经验。 2. 对大数据平台有比较深入的了解,熟悉一个或多个大数据组件,如:hadoop/hbase/spark/flink/hive/kafka/flume/zookeeper等,并有实际维护经验。 5. 熟悉OLAP组件Clickhouse,StarRocks等,有OLAP平台运维经验者优先。 3. 熟悉python,java,go等任意一门编程语言,能熟练编写shell脚本。 4. 熟悉linux操作系统,熟练掌握各种linux命令。 6. 有良好的沟通能力、团队协作能力。 7. 有大规模hadoop集群运维经验者优先
-
岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
-
岗位职责: 1. 负责美团核心交易业务的稳定性保障工作; 2. 参与设计与开发devops工具,包括但不限于容量规划、资源管理、机房容灾、故障分析等; 3. 精细化数据运营,包括可用性指标、历史事故、资源利用率等,挖掘系统薄弱点,落地改进项目; 4. 积累运维最佳实践,为业务架构设计与组件选型提供指导,输出运维技术文档。 岗位基本要求: 1、 计算机相关专业。深入理解Linux系统,精通TCP/IP、HTTP等协议,具备扎实的网络、计算机体系结构方面的知识; 2、 至少熟悉一门编程语言,java/python/go,能开发工具提升效率; 3、 热爱技术,责任感强,拥有强大的项目执行力和良好的沟通协作能力; 4、 工作细致、善于思考,有较强的分析和解决问题的能力; 5、 具备良好的沟通以及协调能力,能独当一面,也擅长团队作战。
-
工作职责 1.异常分析处理,快速恢复应用系统故障,确保业务正常进行; 2.主动预防,分析应用的运行趋势,找出潜在问题并防止其发生; 3.从运维角度评估应用架构可用性、变更风险,确保运行稳定; 4.梳理设计实施应用监控,建立完善的应用监控体系; 5.自动化运营脚本或工具开发,提升工作效率。 任职要求 1.计算机相关专业,大学本科及以上学历; 2.责任心强,工作积极主动,有较好的沟通协调能力,有良好的心理素质; 3.有自驱学习能力,具备较强的问题分析能力和解决能力; 4.一年以上软件开发或者运维工作经验,有金融系统运维经验优先; 5.熟悉以下技术中的两种或以上: 1)Oracle,PostgreSQL或者Mysql数据库性能优化技术; 2)Linux的操作、维护,了解Linux内核性能优化原理; 3)SpringBoot等微服务平台架构以及应用程序的开发技术及流程,或者Python、Go等语言开发技术; 4)Tomcat,Nginx或国产信创应用中间件的配置和维护; 5)k8s容器平台或者云计算、云网络、云存储等运维优化能力; 6)Hadoop,Hive,Spark或者Flink等大数据相关运维优化能力; 7)AI相关技术的运维优化能力。
-
岗位职责: 1.按照标准作业指导手册完成数据中心各项运维工作,并保证SLA; 2.负责IDC 内服务器故障处理、跟进厂商维修; 3. 负责IDC内网络设备调试,日常网络故障处理及少量布线;。 4.负责IDC内日常巡检、发现问题及时反馈至IT组长/IDC服务运营经理处; 工作内容: 1根据工单和业务需求完成现场运营工作。 2.维修阿里自维保服务器。 3.负责现场网络设备调配、维修。 4.负责IDC内日常巡检工作。 任职要求: ***大专及以上,理工科专业。1年IDC现场运维经验。
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
工作职责: 1、负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2、负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3、负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4、深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5、与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1、5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2、具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3、具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4、具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5、有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;