-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
-
职位描述工作内容:1、负责公司级的通用数据平台,服务全公司的产品线2、负责YARN、Hive、Spark、Flink平台维护及二次开发3、负责公司自研调度系统维护以及接口开发4、负责公司大数据集群、执行引擎、平台的优化和运维工作职位要求:1、熟悉一种以上开源大数据工具框架, 包括担不限于YARN、Mapreduce、Hive、Spark、Flink、Presto等;2、强悍的编码能力,生产环境快速定位问题能力,对新技术有强烈的学习热情;3、三年以上java、大数据维护开发经验,有spark streaming,flink实时任务开发经验者优先考虑。4、做事严谨踏实,责任心强,条理清楚,善于学习总结,有良好的团队合作精神和沟通协调能力。
-
岗位职责: 1、负责金融产品外汇、黄金交易软件的研发工作; 2、进行交易系统需求分析,系统设计,编码,对创新金融产品进行系统化研究支持; 3、按编写规范完成各项交付文档,并根据开发计划和安排按时整理提交各项交付文档; 4、协助进行系统运行的日常维护工作,查找故障原因,提出改进意见。 岗位要求: 本岗位要求2年相关工作经验 1、计算机、数学、金融或相关专业; 2、2年及以上对客交易类或自营投资交易类、金融市场中后台软件开发经验; 3、熟悉银行金融市场业务知识,熟悉金融市场外汇、债券、贵金属等产品及相关衍生品业务规则,熟悉金融市场交易机制,各类风控管理要求; 4、精通Java开发; 5、具有良好的职业道德,遵纪守法,品行端正,过往无不良记录,身心健康,有进取精神,有良好的沟通协作能力和团队意识,能够承担工作压力。
-
月薪1w、天河高端社区养老金约访员 一,工作内容: 1,打15个左右电话很快完成,回访电话通知老客户回来参加公司举办的讲座沙龙旅游等福利娱乐活动(活动现场老客户享受免费星级餐宴)接待登记好有意向升级养老金投保的老客户,老客户现场交由主管跟进洽谈,每续约一单你就有3k-1w保单提成; 2,协助陪同主管做好老客户的售后约访或接待工作,将公司礼品或保单送给公司附近的客户(客户来公司领取亦可,礼品有如茶具零食包旅行箱五谷粮油等)服务好公司现有老客户,无需开发身边人,老客户自然会二次续约;老客户大多数是45-65岁的高收入高素质高端社区的群体; 二,收入待遇 (不包吃住) 无责底薪4000元+售后保单续费提成+服务津贴金+周末双休+定期团建等,同事到手月薪在8k-3w元左右(无责指无销售业绩及无销售任务要求,售后保单续费提成是多劳多得) 三,年龄及学历要求: 25-44岁男女不限经验不限,大专或以上学历(非***也可,学信网可查)无犯罪纪录,不是征信老赖黑名单; 四,上班时间:周一至五 9:00-17:00不加班,中午2小时休息,周末双休; 五,上班及面试地点安排: 广州市天河区天河北路28-32号时代广场东座中国人寿广州总部(3号线林和西地铁B口580米) 11月4日起逢周一至五的上午10点10-11点30或下午的14:30-16:30时间段可面试;
-
岗位职责: 1、负责公司大数据平台(采集/加工/调度等)建设,承担相关服务、平台的研发、集成和运维工作,工作中主要使用python; 2、保障应用系统稳定可靠,熟练运用合适技术对复杂场景做出合理技术设计,保障和提升数据平台相关系统的性能和稳定性; 3、工作范围涉及包括但不限于:分布式任务调度系统,数据采集系统,数据加工处理平台,数据应用服务等领域。 任职要求: 1、本科及以上学历,具有2年以上大数据平台应用系统开发及运维经验; 2、拥有扎实的计算机基础和代码能力,具备良好的编码习惯,有较强的问题处理能力; 3、熟悉常见大数据处理/分析相关的工具/框架,如Hive、Spark、Presto、Kafka、Clickhouse、Superset等; 4、具备良好的理解能力,能快速理解业务背景,具有良好的团队沟通与协作能力。
-
岗位职责: 1、研究与跟踪大数据新技术发展方向; 2、负责大数据平台的架构设计,参与核心架构部分代码的编写; 3、以技术专家的身份解决项目中所遇到的核心技术问题; 4、审核数据平台项目总体技术方案,对各项目进行质量评估。 岗位要求: 1、计算机相关专业本科及以上学历, 4年以上系统架构经验,至少3年以上大数据系统架构经验;精通开源数据集成和治理工具的使用; 2、深入掌握Hadoop、Hive、HBase、Spark和Flink等大数据处理平台,并有丰富的实践经验; 3、熟悉MySQL、Oracle、SqlServer、PostgreSQL、NoSql、apache druid等主流数据库,了解内存数据库等快速计算技术; 4、熟悉kubernetes和docker部署工具 5、有工业互联网平台搭建和应用经验者佳 6、有强烈的责任心、良好的沟通协调能力、团队合作精神、优秀的执行能力;
-
岗位职责: 1、负责业务数据体系建设,合理构建业务数仓建模、埋点体系、应用体系等; 2、负责大数据平台产品的规划、设计、开发跟踪与迭代改进; 3、负责业务数据治理,包含元数据管理、指标设计、埋点治理等工作; 4、负责参与产品部门数据分析工作,并通过产品化形式,提高数据分析的效率。 任职要求: 1、**本科及以上学历,计算机、数学、统计学等理工类专业优先; 2、有大数据平台设计或使用经验,了解数据埋点、数仓建模、数据治理等相关知识; 3、熟练掌握SQL语言,能完成复杂数据环境下的数据提取、分析、可视化; 4、勤奋细致,有责任心,对数据敏感,执行力强,能在压力下工作; 5、良好的沟通能力和团队合作精神,有一定的组织协调和推动能力。
-
工作职责: 1、参与设计/研发一站式大数据平台,降低数据技术使用门槛,提高数据生产效率; 2、基于多云环境,构建满足 Data&AI 链路需求的 SaaS 化产品,沉淀和输出解决方案; 3、负责大数据各计算引擎的性能分析与体系优化,提高性能和降低成本。 任职资格: 1、熟悉 Spark/Flink,Hive,Presto,Clickhouse,Tensorflow/Pytorch 等 Data&AI 开源组件; 2、丰富云上经验,熟悉 Kubernetes; 3、强悍的编码和 troubleshooting 能力,掌握Java,Python,Go等语言; 4、具备快速学习能力和结构性思维,热衷于思考和解决客户难题。
-
岗位职责: 1、负责大数据平台资源规划、权限控制、运维架构设计,为各产品业务提供稳定、高效、安全的运行环境; 2、负责基于海量数据采集、存储、治理及服务方案的技术选型及架构设计; 3、负责实时、离线数据分析处理及实时平台的建设和搭建; 4、从整体技术架构角度协助并推动战略落地,开发大数据平台的核心代码; 5、负责产品研发过程中的技术架构设计、数据处理逻辑等方面文档的沉淀与积累。 参与研发团队的日常技术交流与分享,为其他同事提供技术指导与帮助; 6、深入研究大数据前沿技术和产品,与业界先进技术保持同步。 任职资格: 1. **计算机相关本科以上学历,有5 年以上PB级别以上大数据平台项目工作经验; 2. 精通大数据相关组件技术,包括但不限于DataX/Canal、 Hadoop体系、Flink、OLAP、调度系统、权限系统等,理解其内部原理和适用场景,了解核心源码及调优方法; 3. 熟练运用Java和Python,熟悉分布式系统的设计和应用,熟悉数据库、缓存、消息队列、RPC等内部机制; 4. 有实际的大数据工程平台建设实践经验,在 ETL 开发和大数据集成、数据开发等领域有实战经验; 5. 有强烈的主人翁意识,能适应一定工作压力,并有较强沟通能力和理解能力,有一定的团队管理能力; 6. 有大数据中台建设经验、数据治理经验或出行大数据从业经验者优先。
-
1)熟悉大数据平台CDH或者Apache Haoop,包括但不限于基于Hadoop/Yarn/Hive/Hbase/Spark/Impala等; 2)熟悉大数据平台安全,kerberos,sentry,ranger等; 3)具备优化集群的能力及排查问题的能力; 4)熟练使用shell,python等脚本语言并具备一定的开发能力; 5)熟悉Linux操作系统的配置、管理及优化; 6)熟悉Keepalived/Haproxy负载均衡技术; 7)了解docker/k8s更佳; 8)具备良好地沟通与表达能力,逻辑思维能力强,具备团队合作精神。
-
优先存储、采集与计算引擎方向,其余模块可使用此通用方向: 工作描述: 1、参与数据平台整体规划、技术路线、架构设计 2、设计并优化大数据架构,包括数据采集、数据存储/计算、调度、数据安全等,作为数据开发的底层支撑,保障数据开发和应用的高效、稳定运行 3、参与数据平台、大规模数据存储/计算系统、数据安全等前沿技术研究和落地。 职位要求: 1、大学本科以上学历,计算机、软件、大数据相关专业; 2、3年以上数据平台研发经验; 3、技术要求: (1)熟悉Linux操作系统原理,常用工具,精通HTTP、TCP/IP协议,网络编程; (2)精通java/go/python/scala中一门开发语言,对数据库、分布式系统、微服务等有深入理解,参与过大型数据平台架构设计、开发落地; (3)有实际的大数据工程平台建设实践经验,有大数据集成开发平台建设经验优先; (4)包括但不仅限于Hadoop、Spark、Hbase、Trino/Presto、Clickhouse、Doris、dolphin schedule、Ranger、Kafka、ES/Lucene、Hudi/Iceberg等大数据开源项目有大规模应用经验或源码改造经验,Contributor、Committer、PMC优先; 4、诚实守信、作风踏实严谨、责任心强;具备良好团队协作能力精神;学习能力强,善于解决复杂问题; 5、过往工作业绩优秀,或有知名互联网/IT、云服务头部企业工作经验者,年龄、工作年限可适当放宽。 (如各云厂商大数据平台研发架构人员;各公司大数据底层平台架构师(基于开源项目搭建,非数仓);有开源项目贡献经验优先)