• 25k-40k 经验3-5年 / 本科
    金融 / 不需要融资 / 150-500人
    本科及以上学历,计算机相关专业。参与产品的需求分析、设计、开发和测试。参与系统架构设计,提出改进方案。能承受较强的工作压力。
  • 10k-18k 经验3-5年 / 本科
    金融 / 不需要融资 / 2000人以上
    【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与生活服务业务商家数据平台产品的落地,包括数据参谋、数据工厂等系列数据平台产品; 2、参与数据产品架构设计和后端开发,设计和实现Web后端和关键数据服务; 3、参与数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、有本地生活行业经验的优先,对酒旅、外卖、综合、餐饮行业的业务模式和商业逻辑清晰的优先; 2、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 3、扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战; 4、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 5、熟练使用clickhouse、presto、doris等mpp查询引擎,具备数据组件化开发的能力; 6、具备较好的数据分析sense,有良好的协作能力。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、建设机器学习/深度学习平台,根据实际业务场景和需求,优化平台能力; 2、建设灵活的AI开发组件,支持业务打造定制化AI平台及业务。 岗位要求: 1、计算机及相关专业本科及以上学历,具有扎实的代码功底,熟悉常用的算法和数据结构; 2、精通Java语言,熟悉了解Python语言,具有良好的编程习惯,熟悉多线程编程,内存管理,设计模式和Linux开发环境; 3、熟悉Hadoop/Hive/Spark/Flink等计算框架,熟悉Docker技术及Kubernetes容器调度系统; 4、熟悉业界主流的机器学习平台,有机器学习平台研发经验者优先; 5、有Tensorflow/PyTorch等机器学习框架使用经验者优先; 6、有AutoML、自动特征工程系统设计经验者优先; 7、良好的团队合作和协调沟通能力,学习能力强,自我驱动力强,紧跟机器学习的发展动态。
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责生活服务业务效率平台等方向大数据应用能力建设,包含数据专题分析、数据服务、数据诊断等; 2、针对业务场景梳理数据信息,提出一站式的数据解决方案; 3、负责数据产品架构设计和后端开发,设计和实现Web后端和关键数据服务; 4、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、扎实的计算机基础,熟悉Golang语言优先,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用ClickHouse、Presto、Doris等MPP查询引擎,具备数据组件化开发的能力,具备较好的数据分析意识,有良好的协作能力。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 20k-35k·14薪 经验3-5年 / 本科
    软件服务|咨询 / B轮 / 150-500人
    if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Typescript’: case ‘React’: case ‘Node.js’: case ‘micro frontend’: case ‘headless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责大数据平台、数据应用型产品的前端开发,例如商品理解、电商搜索、商品推荐等 SaaS 产品前端交互和功能; 2、负责系统的 SLA 代码维护、迭代更新,保证任务质量和交付及时性; 3、负责编写相关的技术文档、单元测试,对产品质量负责。 岗位要求 1、本科及以上学历,具备英语读写能力; 2、熟悉 Git/GitHub,通信协议 TCP/HTTP 及 RESTful / GraphQL 标准; 3、3 年及以上前端开发经验,熟悉 React, Vue, Angular 等框架,熟练掌握各类打包工具; 4、富有架构思维,能独立完成项目功能设计; 5、熟悉 TypeScript 或其它静态类型语言。 加分项 1、对数据 AI 敏感,有数据应用型产品的前端开发经验; 2、英语可作为工作语言。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
  • 20k-40k 经验3-5年 / 硕士
    工具类产品 / 上市公司 / 2000人以上
    岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
  • 25k-35k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    职位描述 1、负责贝壳一站式机器学习平台的设计研发与迭代改进,为业务提供稳定易用、高性能、高性价比的解决方案; 2、业内机器学习系统与平台前沿技术进展跟进与调研、落地; 3、参与模型训练,模型服务,模型管理,资源调度等机器学习相关问题的开发。 任职要求 1、计算机基础知识与编程基本功扎实,熟悉Go/Python/C++至少一种; 2、参与过大规模分布式系统的开发和维护; 3、良好的沟通能力和团队协作精神,严谨的工作态度与高质量意识 ; 4、善于学习新的知识,动手能力强,有进取心。 加分项: 1、有CUDA C/C++编程经验,有GPU并行计算编程基础(NCCL)经验优先; 2、了解分布式系统、容器相关领域技术,熟悉Kubernetes/docker等优先; 3、熟悉机器学习框架(Tensorflow/Pytorch/Jax)优先。
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 18k-30k·16薪 经验1-3年 / 硕士
    其他,人工智能 / 不需要融资 / 150-500人
    岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
  • 15k-18k 经验1-3年 / 本科
    信息安全,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先