• 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 35k-60k 经验1-3年 / 本科
    消费生活 / 上市公司 / 2000人以上
    美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
  • 25k-50k 经验5-10年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 负责大数据平台的技术方案设计、推动大数据平台的架构落地并持续完善、同时负责信贷大数据相关应用的开发及实施 岗位要求: 1)本科及以上学历,5年以上相关工作经验,35周岁以下,XX大学XX学院若写成XX大学视为简历造假; 2)具备DW/BI架构体系的建设经历并熟悉Hadoop生态圈; 3)熟悉了解shell、java、python、sql等计算机技术知识,具备极强的数据挖掘和分析能力。 4)具备金融或科技行业大数据项目开发经验者优先。
  • 13k-26k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    职责要求: 1.负责数据模型的需求分析、模型设计、数据开发工作; 2.负责数据产品模型的维护; 3.负责数据管理类任务的开展实施,如数据建模,元数据管理、数据质量管理、数据资产梳理、数据资产评估与分析、数据运营等工作。 招聘要求: 1.***本科及以上学历,金融、经济学、数据分析、统计学等相关专业毕业; 2.熟悉掌握大数据及数据仓库原理; 3.熟悉Greenplum(GP)/Teradata(TD)/MPP/mysql/Oracle/Redis/MongoDB/Neo4j一种或者多种数据库,具备大型数据库(TD/GP/MPP)的工作经验优先考虑;熟悉掌握ERWIN等建模工具。 4.有很强责任心.团队精神和持续研究学习的能力,能够接受工作挑战。
  • 8k-12k 经验3-5年 / 本科
    其他 / 不需要融资 / 2000人以上
    岗位职责: 1.负责数据库BI的开发工作,主要为后台数据库结构开发以及数据接口开发; 2.根据数据分析需求,进行报表设计、可视化开发; 3.负责BI报表平台的日常维护 报表问题修复,系统优化,数据处理和文档维护等; 4.负责BI后台数据治理、同步维护; 5.负责BI工具的功能研究和其他集成应用。 岗位要求: 1.计算机类相关专业本科以上学历(优秀者学历与专业可适当放宽); 2.4年以上数据 BI开发工作经验; 3.参与过大中型数据仓库ETL、BI项目的设计与开发优先,具备数据仓库架构设计经验和能力,有独立进行数据仓库设计经验; 4.熟悉SQL编程;熟悉ETL产品、如kettle、SSIS等;熟悉BI工具,如Tableau、帆软等,熟悉BI系统之间集成; 5.能够独立且熟练完成BI项目的分析设计和开发工作(包括ETL抽取和前端多维展现); 6.具备强烈的工作责任感和事业心,良好的团队合作精神和沟通能力。
  • 14k-18k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    中级-数据开发 需要会java的 专业理工科,保险经验优先;
  • 12k-20k 经验3-5年 / 本科
    居住服务 / 不需要融资 / 500-2000人
    【工作职责】 1.【SQL】熟练掌握SQL及其他主流数据库的使用:精通SQL、存储过程、函数的使用,具备编写、优化复杂SQL的能力; 2.【BI】熟练掌握BI看板数据链接,看板可视化能力,具备看板性能优化,设计调优能力; 3.【数据体系】 参与数据质量治理相关工作,提升易用性与数据质量,建立规范化、稳定可靠的数据体系; 4.【数据指标】深入业务视角,充分理解业务的目标,搭建符合业务场景的数据监控,构建业务跟踪指标体系; 5.【数据底层】对数据底层、数据产品有较好的理解能力,帮助业务设计数据产品并且配合上下游部门实现数据产品化。 【职位要求】 1.良好的商业洞察力和业务分析视野,对推动租赁流程创新和数据中台建设富有热情; 2.3年以上工作经验,统计学、数学、计算机科学、商业分析或相关专业; 3.有数据处理能力,熟练使用SQL、Python、SmartBI、帆软等数据分析工具; 4.具备较好的口头和书面沟通能力,有团队合作精神,擅长推动跨团队项目合作; 5.自我驱动、善于独立思考和抗压能力强、有韧劲。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与设计和实现国际化数据的全链路及全生命周期的管控系统搭建,包括但不限于网关、策略引擎、数据标注、元数据管理、权限模型、数据溯源/血缘、数据扫描、数据迁移、数据脱敏等组件的设计与开发; 2、建立集团内部系统数据的统一存储管理体系,统一解决数据存储、数据主权、数据驻留等问题; 3、统一解决合规治理问题,自动识别数据特征,执行对应的政策策略(如拦截、脱敏、假名化等),统一解决各种合规政策带来的系统、数据迁移改造; 4、打破请求链路、业务系统和存储组件壁垒,更高效率的提取决策所需要的各种数据。 职位要求: 1、3年以上工作经验,有复杂系统的构建、运维经验,计算机基础技术扎实,熟练掌握至少一门后端开发语言; 2、熟练掌握至少一个后端开发存储组件:对象存储(S3 接口)、RDS、缓存(Redis)、消息队列、NoSQL 数据库; 3、对技术有浓厚的好奇心,喜欢学习新技术,喜欢钻研和解决未知问题; 4、有良好的团队合作能力,能与其他团队成员紧密合作,解决问题并推动项目进展。 深入参与过以下任意一项的优先: 1、有数据建模方向设计、开发经验; 2、基础架构、中台服务研发; 3、平台级容灾系统的设计、开发工作。
  • 15k-18k 经验1-3年 / 本科
    信息安全,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 13k-18k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
  • 11k-13k 经验5-10年 / 本科
    工具,企业服务 / 未融资 / 150-500人
    1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心