• 25k-35k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    职位描述 1、负责贝壳一站式机器学习平台的设计研发与迭代改进,为业务提供稳定易用、高性能、高性价比的解决方案; 2、业内机器学习系统与平台前沿技术进展跟进与调研、落地; 3、参与模型训练,模型服务,模型管理,资源调度等机器学习相关问题的开发。 任职要求 1、计算机基础知识与编程基本功扎实,熟悉Go/Python/C++至少一种; 2、参与过大规模分布式系统的开发和维护; 3、良好的沟通能力和团队协作精神,严谨的工作态度与高质量意识 ; 4、善于学习新的知识,动手能力强,有进取心。 加分项: 1、有CUDA C/C++编程经验,有GPU并行计算编程基础(NCCL)经验优先; 2、了解分布式系统、容器相关领域技术,熟悉Kubernetes/docker等优先; 3、熟悉机器学习框架(Tensorflow/Pytorch/Jax)优先。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 18k-21k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
  • 25k-40k 经验3-5年 / 本科
    金融 / 不需要融资 / 150-500人
    本科及以上学历,计算机相关专业。参与产品的需求分析、设计、开发和测试。参与系统架构设计,提出改进方案。能承受较强的工作压力。
  • 40k-60k 经验10年以上 / 本科
    工具类产品 / 上市公司 / 2000人以上
    云计算高级专家岗位要求 1.本科及以上学历,计算机相关专业,年龄40周岁及以下,有自驱力,敢于突破。 2.具有云计算相关的高级认证资格(如AWS、阿里云、华为云、天翼云专业级认证等),熟练掌握多种云计算平台的架构和操作,熟悉云计算技术的最新发展趋势,具有丰富的架构设计和方案实施经验。 3.具有10年以上相关工作经验,熟悉云计算架构、服务器、存储、网络、安全、虚拟化、分布式等技术,熟练掌握多种编程语言,具有大规模虚拟化、容器化部署和大型项目实战经验。 4.具有较强的团队管理、业务理解和沟通能力,能够快速识别并解决系统故障和性能问题,提出创新的解决方案,能够与业务部门紧密合作,理解业务需求并提供解决方案,带领团队完成云计算相关项目和任务。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 电商,企业服务 / 上市公司 / 2000人以上
    “开源大数据 - Serverless平台团队”隶属于阿里云计算平台事业部,是阿里巴巴大数据云原生体系的核心团队。我们的主要工作是围绕Kubernetes开发一个Serverless化的全托管底座Pyxis。Pyxis专注于不同大数据产品Serverless化的共性需求(例如:K8s控制面多租、网络隔离、资源管理和调度、安全等),具备业界领先的多云架构,可部署在主要的公共云供应商(AlibabaCloud、AWS、Azure、GCloud)上。依托于全托管底座,已有多款大数据Serverless产品(Flink、Spark、Starrocks、Dataworks、Elastic Search等)在阿里云上进行售卖。 职位描述: 1. 负责阿里云开源大数据 Serverless 平台底座的设计与研发,支持Flink 、Spark、Starrocks、Dataworks、Elastic Search等核心产品Serverless化 2. 负责阿里云开源大数据平台的资源调度技术,打造支持大数据实时离线一体化架构的资源管理平台 3. 推动主流开源大数据引擎云原生化技术演进,包括 Flink / Spark / Presto /… on Kubernetes 架构设计和研发工作 职位要求: 1、快速学习,不断突破技术瓶颈,乐于探索未知领域,随时准备好去面对新挑战 2、具备优秀程序员的基本素养,对代码有洁癖,遇到问题可以一查到底,善用工具,对工程效率有自己的见解 3、熟悉至少一门编程语言(GoLang、Java),有持续学习多种开发语言的意愿和能力 4、在计算机系统结构、操作系统内核、网络、分布式系统、存储等领域有所专长者优先 5、对Kubernetes、Docker等云原生技术有经验者优先
  • 20k-40k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。
  • 消费生活 / 上市公司 / 2000人以上
    美团平台为用户的基础产品体验负责,还承担了美团的用户增长、市场和品牌营销、前端技术基础设施建设以及多条业务线的产品设计职责,建立了融合文字、图片、视频和直播等不同形式的內容生态系统,同时整合地图服务部、客户服务和体验部、企业业务部、网约车业务部等部门,致力于用科技提升美团数亿消费者、近千万商家、骑手、司机和团长的服务体验。美团平台拥有高并发、多业务的复杂场景,为技术深度优化提供了最佳实践可能。这里有简单、讲逻辑、有爱的团队,更是一块理想的实战场地,舞台广阔,欢迎你来尽情施展。 岗位职责 1、负责美团地图服务端或大数据方向的测试开发工作,包括地图相关后台服务或数据平台的功能测试、自动化测试、diff测试、性能测试及大数据测试等 2、全面把控地图多种服务系统或大数据的质量保障,根据业务特点、产品形态、系统架构输出相应的质量保障策略 3、通过技术手段提高测试效率及产品可测性,包括不限于自动化测试、流量回放、数据质检、测试数据建设、专项工具建设等 岗位基本需求 1、计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关(语言不限),至少2年以上后台服务端/大数据的测试工作经验,有一定的软件架构认知 2、对于质量工作具有长期的热情,有兴趣深入理解业务与质量保障工作,具备充分的韧性与主动性 3、有较强的owner意识,重视细节,追求卓越,也能够分步骤渐进式地达成目标 4、对质量保障体系有较清晰的认知,有把控大型项目质量的经验,在服务端/大数据测试领域深入理解或者有一定的技术产出 具备以下者优先 有大数据处理、地图服务端或数据生产服务等领域测试经验者优先 岗位亮点 美团地图是美团重要的基础设施,承载着助力美团各业务发展的重要使命。 自2016年成立以来,地图服务部通过与外卖、配送、到店、网约车、单车、优选、小象超市等多个业务的深度合作,充分利用了美团丰富的线上线下业务场景及商业生态,建立起有行业竞争力的地图服务解决方案,助力了业务的发展; 在C端体验方面,关注出行、找店体验,协同美团平台打造基于地图的用户产品,提供一站式消费与出行的闭环体验;面向未来,在智能驾驶领域积极布局,致力于在车内为用户提供体验更优的美团服务。 在质量部,我们有开放、直接的工作氛围,以逻辑和事实说话,而不是岗位级别和层级。我们尊重知识和常识,努力以业务视角思考自身工作。以技术为导向,致力于通过技术手段解决质量保障过程中的问题。
  • 15k-30k 经验不限 / 本科
    移动互联网,教育 / 未融资 / 150-500人
    工作职责: 负责离线及实时大数据应用的开发与维护,支持业务需求的高效实现。 在大数据架构下完成数据采集、清洗、存储、模型加工及查询展示的程序设计与开发。 深入理解业务需求,进行合理抽象,与数据分析团队合作,发掘数据价值;有教育行业背景者优先。 优化现有系统,提升性能和数据处理效率。 参与数据治理工作,提升数据质量和易用性。 有算法开发经验者优先,能够支持复杂数据分析和建模需求。 任职要求: 熟练掌握 Java 或 Python,具备丰富的面向对象和函数式编程经验。 熟悉 Linux 操作系统,能够编写高效的 Shell 脚本。 精通 SQL,熟悉常用数仓函数及自定义函数开发,能够应对复杂业务需求。 具备数据仓库开发经验,熟悉 ETL 流程及数据仓库分层架构设计。 深入掌握 Apache Spark 或 Apache Flink 等主流大数据处理框架。 对数据敏感,具备优秀的逻辑思维能力和沟通能力,能够有效推动团队协作。 加分项: 有教育行业大数据开发经验。 具备算法开发能力,能够支持复杂数据建模需求。