• 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 18k-30k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责飞书项目产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责自研检索DSL解析执行引擎,做实时数据加工计算系统。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年及以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品意识,主动思考基于业务场景下的数据体系建设; 5、工作认真负责,有良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责下一代AI数据引擎在云上的部署、管理和优化; 2、基于字节云&火山引擎等云基础设施,实现大规模、分布式、弹性的AI数据引擎服务。 职位要求: 1、本科及以上学历,计算机、软件相关专业或工作经验;具备良好的沟通和自学能力; 2、有Spark/Flink/Presto/Doris/Starrocks/HBase/MySQL/Redis/MongoDB中的一个或多个系统的运维和部署经验; 3、熟练掌握Kubernetes的部署、使用和运维,具备实际项目经验,熟练使用Docker进行容器化应用的开发和运维; 4、熟悉主流云服务提供商的产品和服务,具备云管控经验; 5、具备扎实的网络架构知识,熟悉负载均衡、网络安全等技术; 6、熟悉Linux运维和操作,具备基本计算机原理知识;熟练掌握至少一种面向对象编程语言,具备良好的代码编写能力。
  • 25k-35k·13薪 经验5-10年 / 不限
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    职位描述: 1、负责数据库架构设计及实施,保证数据库服务的高可用; 2、制定并优化数据库监控策略,提早发现并解决数据库可能出现的问题; 3、建立完善的数据库及备份运维和管理流程,数据库维护管理体系; 4、负责数据库运维过程中的问题排查及快速解决问题。 5、跟踪调研数据库领域的新技术新产品,根据业务发展需求设计解决方案。 职位要求: 1、3 年以上 DBA 相关工作经验(MySQL、Oracle、PostgreSQL 等),互联网工作经验更佳。 2、深入了解 mysql postgresql mongodb oracle 等其中一项主流关系型数据库体系架构; 3、精通 MySQL 高可用方案,灾备方案。能够独立设计并实施数据库高可用架构方案。 4、熟悉 MySQL 高并发,有丰富的故障处理和性能优化经验。熟悉常用的监控工具。 5、熟悉存储相关服务,如分布式系统、ES、redis cluster、fastdfs、gfs等。 6、有大规模 MySQL 、Redis、MongoDB等数据库运维经验者优先。 7、较强的学习能力,良好的沟通能力,熟悉部门间协调及优秀的工作推动能力,工作积极主动,有服务意识和团队协作精神。
  • 10k-15k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、负责生产数据库(MySQL/Redis/MongoDB/TiDB等)的日常运维,稳定性保障,性能优化; 2、及时定位和排除数据库故障,并对数据库进行持续性能优化,并发现潜在风险; 3、负责数据库常见运维工具的开发及设计; 4、根据业务需求选型数据库存储方案,优化性能,实施集群迁移及扩容; 5、优化现有数据架构,推动及解决现有架构遗留问题; 职位描述 1、具有丰富的数据库领域知识,长期从事数据库领域工作; 2、三年以上MySQL、MongoDB、Redis等数据库运维经验; 3、熟练掌握Linux基本管理,熟练掌握至少二种脚本开发语言(Python、Shell、go、Vue等); 4、精通MySQL数据库配置、备份、优化、监控等; 5、精通MySQL主从复制、高可用方案、负载均衡等; 6、有MySQL高负载高并发系统的运维经验; 7、熟悉MongoDB及Redis,熟悉原理及集群优化方案; 8、有良好的故障排除能力和分析能力,保障业务快速恢复; 9、熟悉数据库容量规划和分库、分表设计方法,有数据库模型设计和支持经验; 10、有金融经验者优先;
  • 13k-26k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    职责要求: 1.负责数据模型的需求分析、模型设计、数据开发工作; 2.负责数据产品模型的维护; 3.负责数据管理类任务的开展实施,如数据建模,元数据管理、数据质量管理、数据资产梳理、数据资产评估与分析、数据运营等工作。 招聘要求: 1.***本科及以上学历,金融、经济学、数据分析、统计学等相关专业毕业; 2.熟悉掌握大数据及数据仓库原理; 3.熟悉Greenplum(GP)/Teradata(TD)/MPP/mysql/Oracle/Redis/MongoDB/Neo4j一种或者多种数据库,具备大型数据库(TD/GP/MPP)的工作经验优先考虑;熟悉掌握ERWIN等建模工具。 4.有很强责任心.团队精神和持续研究学习的能力,能够接受工作挑战。
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责 1.数据质量监控:负责监控金融信贷相关业务域数仓数据的准确性、一致性和完整性,确保数据质量符合业务需 求。 2.数据质量测试:设计并执行数据质量测试用例,验证数据计算逻辑、数据转换规则和数据存储的正确性 3.数据质量问题跟踪:跟踪测试中发现的数据质量问题,协调研发团队进行问题修复,并验证修复效果. 4.数据质量工具开发:参与数据质量管理平台的功能设计与开发,提升数据质量测试的自动化水平。 岗位任职要求 1.学历要求:本科及以上学历,计算机科学、软件工程、数据科学或相关专业。 2.工作经验:3年以上数据测试或数据质量测试经验,有金融信贷行业经验者优先。 3.大厂背景:具有阿里、腾讯、字节跳动、百度等大厂数据测试或数据质量测试经验者优先,。 4.技术能力: a).熟悉大数据技术栈(如Hadoop、Spark、Hive、Flink等)。 b).熟悉数据质量监控工具(如Apache Griffin、Great Expectations等)。 c).具备一定的编程能力(如Python、Java、SaL等),能够编写自动化测试脚本。 d).熟悉数据治理相关工具(如数据血缘、元数据管理等)者优先。 5.业务理解:对金融信贷业务有深入理解,能够根据业务需求设计数据质量测试方案 6.问题解决能力:具备较强的逻辑思维和问题解决能力,能够快速定位数据质量问题的根本原因。 7.沟通协作:具备良好的沟通能力和团队协作精神,能够与研发、业务团队高效协作。 加分项 1.有金融信贷行业数据质量测试经验者优先。 2.熟悉金融行业数据标准和监管要求者优先。 3.具备数据治理或数据资产管理经验者优先。
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 35k-60k 经验1-3年 / 本科
    消费生活 / 上市公司 / 2000人以上
    美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
  • 18k-30k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责 1、负责健全数据安全体系管理,负责规划、实施和优化数据安全管理体系,确保符合相关法律法规和行业标准; 2、负责开展数据活动管理,落实数据分类分级策略,监控数据全生命周期的安全,确保数据处理活动的合规性; 3、负责开展数据安全事件管理,完善安全事件应急响应机制,负责事件的检测、响应和调查; 4、负责开展数据安全风险管理,识别、评估和管理数据安全风险,实施风险缓解措施,定期进行风险评估; 5、负责组织数据安全培训,设计并实施数据安全培训计划,提升员工安全意识和技能,定期组织演练和测试。 岗位要求 1、教育背景:信息安全、计算机科学、网络工程等相关专业本科及以上学历; 2、工作经验:3年及以上数据安全工作经验,有金融业或大型企业经验者优先; 3、熟悉相关法律法规,如《数据安全法》《个人信息保**》,熟悉数据安全管理体系(如ISO27001),具备体系建设和实施经验; 4、掌握数据分类分级方法,能够根据业务需求制定数据安全策略; 5、具备数据安全风险评估能力,能够识别数据安全威胁并制定应对方案; 6、熟悉数据安全事件管理流程,具备应急响应和事件调查经验; 7、具备数据安全场景化能力,能够针对不同业务场景(如数据共享、数据传输、数据存储等)设计相应的安全解决方案; 8、具备高度责任心,良好的沟通能力、学习能力和团队合作精神; 9、具备数据隐私保护、数据安全事件响应、数据安全风险评估等实际项目经验者优先; 10、持有CISP、CISSP、CCRC等认证者优先。
  • 30k-50k 经验不限 / 不限
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责: 负责设计和维护数据仓库架构,支持业务线包括但不限于Things to do、Mobility和酒店业务。 深入了解各业务线,通过数据分析支持业务决策和策略制定。 构建和优化数据模型,确保数据准确性和可靠性。 独立处理和优化复杂的数据集,改进数据质量和处理流程。 与业务团队和技术团队紧密合作,确保数据解决方案满足业务需求。 编写技术文档和维护数据仓库的数据字典。 职位要求: 拥有5年以上数据仓库领域的工作经验。 精通SQL和数据库技术,有实际操作大型数据库的经验。 具备扎实的数据模型构建经验,能够独立设计和优化复杂的数据模型。 对数据质量和底层数据处理具有丰富的经验,能够有效解决数据问题。 熟悉dbt的应用,有实际使用经验者优先。 具备良好的分析思维和问题解决能力,能够独立完成项目。 良好的沟通和团队合作能力,能够与不同背景的团队成员有效沟通。
  • 20k-30k·15薪 经验3-5年 / 本科
    电商,企业服务 / 未融资 / 150-500人
    主要职责: 1. 承担大数据平台日常数据开发、运维工作; 2. 承担ODS ETL相关工作,主要包含数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 参与数据治理工作,保障数据质量; 4. 承担相关报表的数据准备,利用BI工具开发相关业务报表; 5. 完成部门布置的其他与数据相关任务。 招聘要求: 1. ***大学本科及以上学历,计算机或数学相关专业,3-5年与数据相关工作经验; 2. 熟悉大数据主流开发框架:Hive、Hadoop、Flink、Sqoop等常用组件的使用,具备性能调优经验者优先; 3. 熟悉数据仓库使用及优化,深入了解数据仓库体系及实施,有实际支撑业务场景经验; 4. 数量掌握SQL、Python等编程语言,具备Java实际项目经验者优先; 5. 善于沟通,对数据具有一定敏感度,能快速理解业务背景,能承担工作压力,具备良好的适应能力。