• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、通过定量分析、数据挖掘、数据建模和数据呈现等手段,深入理解开发者需求及痛点; 2、通过探索性的数据分析与数据建模,从数据中洞察、挖掘研发工具类业务存在的关键问题,并提出相应的产品体验提升及业务增长方案; 3、能根据业务需求完成较为深入的专项数据分析,通过对数据的敏锐洞察、定性和定量分析、以及模型建设,迅速定位内部问题或发现机会; 4、与产品、运营、研发以及其他部门跨团队高效合作,完成高质量沟通,推动并确保数据分析结论的落地与持续优化; 5、负责部门的数据资产维护、管理和建设。 职位要求: 1、5年及以上数据分析/数据科学行业经验; 2、本科以上学历,统计学、经济学,数学、计算机科学相关专业优先; 3、扎实的数据分析理论和技术基础,较好的学习能力;能理解开发者业务逻辑,能根据数据提供合理的业务洞察及见解,推动产品优化和迭代; 4、熟练使用SQL和其他数据分析/建模语言(Python, R等),掌握Tableau、PowerBI等数据可视化工具者。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 30k-50k 经验不限 / 不限
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责飞书People产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责打通不同业务线数据内容,形成统一数据模型; 4、负责全产品线数据治理,提升数据资产质量。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品思维,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
  • 25k-35k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    职位描述 1、负责贝壳一站式机器学习平台的设计研发与迭代改进,为业务提供稳定易用、高性能、高性价比的解决方案; 2、业内机器学习系统与平台前沿技术进展跟进与调研、落地; 3、参与模型训练,模型服务,模型管理,资源调度等机器学习相关问题的开发。 任职要求 1、计算机基础知识与编程基本功扎实,熟悉Go/Python/C++至少一种; 2、参与过大规模分布式系统的开发和维护; 3、良好的沟通能力和团队协作精神,严谨的工作态度与高质量意识 ; 4、善于学习新的知识,动手能力强,有进取心。 加分项: 1、有CUDA C/C++编程经验,有GPU并行计算编程基础(NCCL)经验优先; 2、了解分布式系统、容器相关领域技术,熟悉Kubernetes/docker等优先; 3、熟悉机器学习框架(Tensorflow/Pytorch/Jax)优先。
  • 35k-60k 经验1-3年 / 本科
    消费生活 / 上市公司 / 2000人以上
    美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 20k-30k 经验3-5年 / 本科
    数据服务,信息安全 / 不需要融资 / 50-150人
    岗位职责 1、实时/离线数据湖内核功能研发以及性能优化,包括数据湖与hive\spark\flink的集成,索引功能开发,upsert功能开发等; 2、负责数据湖技术在公司内部以及外部项目的落地; 3、参与公司大数据平台建设。 岗位要求 1、本科及以上学历,计算机相关专业,3年以上相关经验; 2、熟悉Java或scala,熟悉Linux操作系统; 3、必备技能:Hive、MR(Java)、Flink、Spark;对大数据处理(Hadoop)、数据仓库结构有较深刻的认知; 4、工作态度端正,有较强的责任心及执行力,紧急工作能够快速响应; 5、有开源数据湖相关经验优先。 PS:公司预估九月初搬家至通州区北运河西地铁站附近,请确认好位置是否合适
  • 25k-40k·16薪 经验不限 / 本科
    金融业 / 不需要融资 / 50-150人
    所有岗位均可远程办公,以下是每个岗位的重点要求,详细JD可私信发送 -golang:熟悉中间件开发,或者熟悉Docker, Kubernetes(K8s),或者处理过高并发业务 -编译器开发:掌握编译原理和基本概念、编译器开发经验、解释器开发经验 -引擎开发:交易系统、分布式事务、分布式交易方向,开发语言golang或者LinuxC都可以;互联网背景优先 -数据负责人:数据组负责人,负责数据组日常管理及数据工作流程制定等;数据要求:千万级以上用户量,总处理数据规模大于100T,单日处理数据居量在亿级别; 管理经验:有带领10-20人团队经验,并且可独立参与技术细节; -数据开发:需要有flink经验 -运维负责人:运维小组负责人,负责运维组工作统筹规划、流程制度建设 -运维工程师:大厂体系化工作经验优先;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -研发工程师:最好有大厂体系化工作经验;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -前端:react技术栈
  • 25k-50k·16薪 经验3-5年 / 本科
    新能源汽车制造 / 未融资 / 2000人以上
    一、岗位职责: 1. 协同软件架构师针对特定计算平台设计智能驾驶软件架构 ; 2. 根据智能驾驶业务需求负责系统异构计算平台功能数据流业务实现 ; 3. 基于目标计算平台及软件业务需求实现高效数据吞吐,优化系统时延及计算资源开销; 4. 实现传感器抽象,硬件抽象,系统及软件模块业务和调度 ; 5. 实现基于SOA的智驾相关服务应用开发; 6. 针对智驾异构传感器,实现相关的高效数据流模块,支持上层应用业务。 二、岗位需求: 1. 本科或以上学历,计算机或相关专业本科及以上学位; 2. 精通至少一门编程语言(C++优先),注重编码规范; 3. 有异构计算平台研发经验优先,有智能驾驶功能研发方面经验优先; 4. 熟悉Linux操作系统;具有DDS,ROS,IPC, SHM等开发经验 ; 5. 良好的沟通表达能力,团队合作能力 。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 25k-40k·15薪 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。
  • 18k-21k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
  • 13k-14k 经验1-3年 / 本科
    移动互联网 / 未融资 / 150-500人
    1、负责数据管理平台数据集成优化工作,根据业务需求对集成任务及目标模型调整、配置;参与平台数据集成一致性保障工作,响应数据核对差异告警,分析、处置差异问题,并持续跟踪数据源解决。 2、负责数据管理平台(数仓)运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 3、配合数据中心运维团队和阿里云维护SRE团队完成部门内使用的阿里云大数据平台下资源配额的运维保障工作,保障部门内配额资源的正常运行和相应数据服务的稳定高效; 任职资格 任职要求: 有大数据、数仓项目经验的,有etl运维经验的优先。 1. 具有1年以上金融行业数据类项目运维经验,具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员; 2. 具备数据开分析能力,熟练掌握SQL等技能,掌握大数据平台、UNIX、LINUX和中间件的技能; 3. 具备数据分析,问题分析,逻辑思维能力; 4. 具有较强的沟通能力、表达能力,积极主动。有团队协作能力,良好的沟通能力和责任感,能承受较强工作压力,执行力强。 5.本科学历,学信网可查,毕业2年以下的请勿投递。 岗位特点: 有etl运维经验的优先,学信本 中华保险大厦,毕业2年以下的请勿投递
  • 金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 加入创新研发中心,你将会参与保险行业数字化创新变革的标志性核心项目建设,负责: 1.参与大数据平台研发设计,包括大数据采集、存储、分析及应用等领域; 2.参与需求分析、系统架构设计,并完成需求设计相应文档的编写; 3. 参与代码实现和性能优化,从用户角度推动业务发展。 任职资格: 携手同行,实现“数字中华”目标,我们希望你可以是: 1.即将毕业于**院校,取得*****本科及以上学历; 2.拥有计算机/应用数学/统计类相关专业背景,研究生尤佳; 3. 了解Hadoop/Spark生态圈产品的工作原理及应用场景,有一定Hadoop/Spark/kafka/flume/hbase/hive/ zookeeper等大数据生态圈知识和开发经验; 4. 熟悉Linux系统,了解shell编程,java/python基础扎实,了解jvm,熟悉常用软件的安装与调试; 5. 具备较强的数据分析、问题分析、逻辑思维能力,良好的沟通、协作能力,掌握svn、git等常用的团队协作工具。