• 40k-80k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责风控数据链路开发工作,基于公司基础组件搭建风控数据计算平台,参与在线/近线/离线计算能力建设; 2、参与数据治理工作,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、丰富的大数据生态系统开发经验,熟悉Spark、Flink、Clickhouse、Hadoop等技术; 2、4年以上大数据研发经历,计算机相关专业本科及以上学历; 3、精通Go/C++/Java等至少一门编程语言,熟练运用各种常用算法和数据结构,有独立实现能力; 4、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于解决问题和分析问题; 5、熟悉流式计算,有大流量系统开发经验者优先。
  • 40k-80k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责风控数据链路开发工作,基于公司基础组件搭建风控数据计算平台,参与在线/近线/离线计算能力建设; 2、参与数据治理工作,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、丰富的大数据生态系统开发经验,熟悉Spark、Flink、Clickhouse、Hadoop等技术; 2、4年以上大数据研发经历,计算机相关专业本科及以上学历; 3、精通Go/C++/Java等至少一门编程语言,熟练运用各种常用算法和数据结构,有独立实现能力; 4、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于解决问题和分析问题; 5、熟悉流式计算,有大流量系统开发经验者优先。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。
  • 30k-60k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与大数据存储相关产品的设计,负责存储产品相关功能的设计、交付和维护; 2、发现产品缺陷,设计高可用、易扩展的方案解决问题,实现产品高质量、高效率发布; 3、进行有效沟通协作,充分调动资源,推动产品有序高效落地。 职位要求: 1、熟悉大型分布式存储系统的关键技术点,能分析业务需求,产出产品解决方案; 2、熟悉Java/C/C++/Go等其中一种语言,熟悉网络编程和多线程编程,参与研发,完成产品落地; 3、熟悉大数据体系生态,除存储系统外,熟悉至少两种相关生态组件(如Yarn、Spark、Flink、Kafka、HBase)的原理、架构和应用; 4、具备较强的问题分析能力和团队合作能力,有较强的自我驱动能力和产品意识 。 具备以下条件者优先: 1、参与过PB级别数据量分布式存储系统研发,有过大规模数据集群运维、故障排查及调优等实战经验; 2、有ES相关的产品研发经验,特别是内核相关的开源项目参与经验; 3、参与过大数据开源项目的开发。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音生活服务服务商平台核心数据系统服务端研发工作; 2、负责持续改善服务质量,提高系统稳定性和高可用性,减少线上反馈; 3、深入与产品形成协同,将技术应用到业务场景,达成产品业务目标; 4、对所负责的模块范围,有自己的技术规划。 职位要求: 1、本科及以上学历,计算机、通讯等相关专业,3年及以上大数据研发工作经验; 2、扎实的计算机知识,有较强的逻辑能力和学习能力,深入了解Go、Python、Java等至少一门语言; 3、熟悉分布式系统设计、大数据处理设计、微服务系统设计、稳定性治理、常用中间件原理以及实践等优先; 4、热爱编程,责任心强,有较强的学习能力,有强烈的求知欲,具有良好的团队沟通与协作能力; 5、有电商、O2O经验优先;有酒旅、外卖等行业经验的优先。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责生活服务业务效率平台等方向大数据应用能力建设,包含数据专题分析、数据服务、数据诊断等; 2、针对业务场景梳理数据信息,提出一站式的数据解决方案; 3、负责数据产品架构设计和后端开发,设计和实现Web后端和关键数据服务; 4、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、扎实的计算机基础,熟悉Golang语言优先,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用ClickHouse、Presto、Doris等MPP查询引擎,具备数据组件化开发的能力,具备较好的数据分析意识,有良好的协作能力。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动各业务直播数据的汇聚与接入; 2、负责直播数据平台数据链路建设和数据开发规范建设; 3、建设数据质量体系,形成完整的数据监控和数据校验机制; 4、负责直播相关数据需求的开发,能独立设计方案、把控需求、拆解细化并实施。 职位要求: 1、熟练运用Python、Java、Scala、Go等至少一门语言,对数据结构和算法设计有较为深刻的理解; 2、熟悉MySQL/postgresql/MariaDB等至少一类数据库,熟悉常见的NoSQL存储; 3、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想; 4、丰富的大数据技术经验,熟练掌控至少2种大数据技术,包括不限于Hadoop、HBase、Spark、Kafka、Storm、Flink等; 5、具有良好服务意识与数据sence,团队意识和协作精神; 6、较强的内外沟通能力,有数仓开发经验者优先。
  • 10k-20k 经验在校/应届 / 本科
    电商 / 上市公司 / 2000人以上
    我们是淘天集团内覆盖从生产制造到消费者购物的全场景、全链路,并深度重塑各业务环节的电商技术团队;我们支持天猫超市、天猫国际等全部淘天自营业务,他们都是淘宝APP亿级流量入口的核心购物场景。 岗位职责: 1、支持的业务场景:支持淘天集团下的天猫超市、天猫国际、淘宝买菜等自营业务场景; 2、负责业务数据资产体系的建设,抽象提炼面向零售业务的从供应链到消费者端的全链路通用数据模型并实现BC联动,同时建立统一的数据标准; 3、负责业务的数据应用能力体系建设,让数据更好的赋能业务并基于业务的痛点、挑战来沉淀抽象通用的数据应用解决方案,让数据驱动业务的精细化运营并带来增量的价值; 4、探索AI大模型在数据技术能力和工具平台的建设,通过深度集成自营业务场景的核心需求,全面提升研发效能与经营智能化水平,为多元化业务场景打造高效、精准的智能化解决方案,驱动业务价值持续增长。 5、良好的业务前景和自身的全面发展,你将具备供应链领域的系统知识,同时具备互联网 + 供应链的综合型人才,成为全社会数据领域中的稀缺人才。团队氛围轻松愉快,技术氛围浓厚,团队组织、目标、成员稳定,欢迎小伙伴一起来造梦。 任职要求: 1、有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关开发经验,有Spark/Flink/java/python/机器学习算法的开发经验尤佳; 2、良好的思维逻辑性、语言表达能力及沟通协同能力,对技术由热情,愿意接受新的技术,有较强的自我驱动学习的能力。
  • 25k-45k 经验3-5年 / 本科
    信息安全 / A轮 / 50-150人
    岗位职责: 1.主导过企业级数据仓库、数据中台的架构设计,负责数据集市设计、模型设计与程序开发; 2.负责数据治理及数据分析研发类工作,包括治理及分析产品的功能设计和数仓的开发设计,以及分析门户等。 3.孵化并持续迭代优化数据治理产品、数据分析产品,以系统化、智能化能力高效支撑产品研发落地和迭代提升。 熟练使用开发工具,负责数据治理、数据分析相关的数据建模、数据开发等研发类工作。 任职要求: 1.本科及以上学历, 8-10年以上大数据相关工作经验,有数据科学、机器学习等方面应用经验者优先; 2.熟悉ETL技术架构,熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 3.熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力。
  • 15k-20k·15薪 经验5-10年 / 硕士
    其他 / 不需要融资 / 2000人以上
    任职要求: 1.熟悉数据治理体系架构,对元数据管理、数据质量管理、数据血缘、数据标准管理和指标管理有深入研究; 2.熟悉数据中台体系架构,对数据中台建设的方法论有一定的了解; 3.熟悉数据仓库常用建模理论,了解数据分层结构以及设计模型; 4.熟练掌握SQL语言,熟悉MySQL、Oralce、Greenplum、PostgreSQL、虚谷等至少一种数据库; 5.熟悉大数据开发框架,熟悉Hive、Spark、Flink、Hbase、Impala、Kylin、Kafka中两种以上大数据主流工具和技术; 6.具有三年以上大数据平台、数据仓库相关领域项目开发实施经验,有丰富的数据建模、ETL架构和开发经验;
  • 20k-30k·16薪 经验3-5年 / 本科
    工具 / 上市公司 / 2000人以上
    工作职责: -负责构建大数据分析平台以及数据分析和挖掘工作 -跟进相关产品线的数据梳理,各数据指标的计算和分析 -参与海量数据的存储、查询和运营数据分析体系搭建 -运用hadoop、hive、spark、ES等分布式计算和存储平台 职责要求: -计算机相关专业,3年及以上相关工作经验,有扎实的计算机理论基础 -研究过Hadoop或者Spark源代码的优先 -熟悉Java/Python等编程语言,熟练使用SQL,有良好的编码习惯 -技术视野开阔,有强烈的上进心和求知欲,善于学习和运用新知识 -善于沟通和逻辑表达,良好的团队合作精神和积极主动的沟通意识 -具备大数据云平台、计算存储平台、可视化开发平台经验优先 百度地图
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责快手电商数据仓库的建设,构建各垂直应用的数据集市; 2、负责快手电商新产品数据统计、报表产出、效果监测、归因分析和商务支持; 3、定义并开发业务核心指标数据,负责垂直业务数据建模; 4、根据业务需求,提供大数据计算应用服务,并持续优化改进; 5、参与埋点设计、数据生产全流程等技术体系建设和保障工作; 任职要求 1、本科以上学历,两年以上大数据相关开发经验; 2、熟悉Linux平台,熟练使用Java、Python编程语言,编码基本功扎实; 3、有Hive、Kafka、Spark、Flink、HBase等两种以上两年以上使用经验; 4、熟悉数据仓库理论方法,并有实际模型设计及ETL开发经验,对于数据的架构和设计有一定的思考,具备良好的数学思维和建模思维; 5、熟悉分布式计算框架,掌握分布式计算的设计与优化能力,对Hadoop生态其他组件有一定了解,比如 HBase,Hadoop, Hive, Druid等 6、了解流式计算,熟悉至少一种实时计算引擎:Storm, Spark, Flink; 7、有很强的学习、分析和解决问题的能力,良好的团队合作意识,较强的沟通能力。 加分项: 有电商数据开发经验优先。
  • 20k-40k 经验3-5年 / 本科
    工具 / 上市公司 / 2000人以上
    工作职责: -负责百家号和Feed相关大数据的基础建设 -负责数仓引擎、Spark底层的优化和基础建设 -为百度系APP相关业务分析及策略优化提供大数据支持 -参与百度系APP日志数据架构开发和APP端性能分析平台建设 任职资格: -本科及以上学历,计算机相关专业 -熟练使用SQL,以及Scala/C++其中一种编程语言,对分布式架构和并行计算有较深刻理解 -熟悉Hadoop/Spark/HBase/Kylin/ClickHouse等大数据计算和存储技术栈,了解其工作原理,并有实际开发经验 -熟悉Spark Streaming/Flink等流式计算框架,以及Kafka等常见消息队列
  • 22k-32k·16薪 经验1-3年 / 本科
    工具 / 上市公司 / 2000人以上
    工作职责  岗位职责:  - 设计、实施和维护大数据平台,包括数据采集、存储、处理和分析  - 开发和维护数据管道和 ETL 流程,开发建设数据分析BI报表,确保数据的准确性和完整性  - 使用数据分析工具和技术,解释和解读数据,提供有关业务和产品的见解和建议  - 创建和维护数据报告和仪表板,以便其他团队成员可以轻松访问和理解数据  - 与其他团队成员合作,确保数据平台的稳定性和可靠性  任职资格  岗位要求  - 本科或研究生,计算机、数学、统计学相关专业  - 对大数据研发、数据科学方向有兴趣,了解大数据技术栈,可使用Hadoop、Spark、Hive等大数据工具和技术  - 熟练掌握至少Python、Java、Scala等一门开发语言,有sql基础  - 加分项:优秀的英文水平、数据科学项目经验、Tableau数据可视化经验  - 优秀的问题解决能力和团队合作能力
  • 22k-28k·16薪 经验在校/应届 / 本科
    工具 / 上市公司 / 2000人以上
    工作职责 -负责构建大数据分析平台以及数据分析和挖掘工作 -负责基于百度数据的离线和实时流分析 -参与支撑业务的数据模型建设及数据指标的计算和分析 -参与海量数据的存储、查询和运营数据分析体系搭建 -运用Hadoop、Spark、ES等分布式计算和存储平台 任职资格 -计算机相关专业应届毕业生 -对Spark及Hadoop技术有深入了解 -熟悉Python/Java/Scala/Php等编程语言,熟练使用SQL,有良好的编码习惯,对分布式有深刻理解 -了解Windows、Unix、Linux等主流操作系统原理,熟练运用系统层支持应用开发 -技术视野开阔,有强烈的上进心和求知欲,善于学习和运用新知识,勇于解决难题 -善于沟通和逻辑表达,拥有优秀的分析问题和解决问题的能力,良好的团队合作精神和积极主动的沟通意识 -有激情,具有自我驱动力,追求卓越 具有以下条件者优先: -计算机领域相关的编程大赛获奖、专业期刊发表文章或者有发明专利等 -具备大数据云平台、计算存储平台、可视化开发平台经验,熟悉软件工程开发流程 -具备专业领域的计算机知识和技能: Storm/Hive/Hbase/Storm/Kafka等