• 15k-25k 经验5-10年 / 本科
    移动互联网,游戏 / 不需要融资 / 150-500人
    岗位职责: 1、深入分析玩家数据,了解玩家行为和偏好,为产品迭代和新功能开发提供数据支持 2、开发和维护数据仪表板,提供实时游戏性能指标和KPI跟踪 3、使用统计学方法和机器学习模型来预测游戏趋势,识别用户增长和留存机会 任职要求: 1、本科以上学历,具备扎实的数据分析和建模相关理论知识,统计学、数学、计算机相关专业优先 2、五年以上数据分析相关工作经验,有丰富的数据驱动业务的实战经验 3、精通Excel,熟悉SQL和至少一种数据分析工具(如Python、R) 4、熟悉Tableau/PowerBI等可视化工具 5、对游戏行业的商业模式、市场趋势和玩家心理有深刻理解 6、出色的分析思维和问题解决能力,能够处理复杂的数据集并提出洞察 7、强大的沟通技能,能够将复杂的分析结果转化为易于理解的报告和展示 8、有数据建模或机器学习项目经验者优先
  • 18k-30k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
  • 15k-30k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责关键客户的开拓和维护,深度挖掘并跟进潜在的数据采集业务需求,可独立编写技术方案并对客户进行服务介绍; 2、负责数据采集项目交付全流程,准确评估/跟进项目的交付质量、时间、成本、风险; 3、合理设计项目流程、实施计划、供应商奖惩规则,搭建团队推动落地,及时识别项目交付中的各类风险、阻碍并提供解决方案,积极行动,超预期实现项目质量、进度、成本的控制目标; 4、提升项目运营效率,找出业务流程中存在的问题,提出合理优化建议;沉淀交付方法论,提升从项目规划、采集到数据交付的业务处理效率; 5、负责组织项目各个节点经营分析及项目复盘工作,分析业务数据,为客户提供业务指导决策依据。 职位要求: 1、本科及以上学历,3年以上项目交付管理相关经验,熟悉数据采标、人工智能行业项目管理者优先; 2、具备众包等人力资源调度的项目交付经验; 3、对数据行业有深刻的理解和认知,具备大模型应用相关工作经验者优先考虑; 4、思路清晰,逻辑性强,具备较强的学习能力和沟通能力; 5、有丰富的跨团队沟通协作经验和项目落地经验,能够和客户、供应商等就项目涉及到的各方面内容进行谈判。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、建设与维护隐私和数据安全体指标体系,完成系统化指标监控及归因分析,为内部数据安全治理提供输入; 2、负责搭建数据安全治理看板,从顶层视角多维度的展示安全治理水位,并进行内部业务线的横向比较; 3、针对内部隐私安全产品提供数据分析服务,支持产品运营和数据安全管理策略落地工作; 4、支持内部数据安全治理专项,为项目提供数据分析结果,编制数据安全风险报告。 职位要求: 1、本科或以上学历,计算机、数学、统计、管理信息系统、运筹学等相关专业优先; 2、熟悉SQL,了解数据仓库,Spark、Hive等大数据处理工具或框架,可使用Tableau、Power BI等可视化工具;3年以上数据分析工作经验; 3、具有优秀的风险洞察能力,能够通过数据讲出好故事,同时具备数据指标体系拆解思路和看板交互设计能力; 4、逻辑清晰、执行力强、具备良好的学习能力和自驱力,善于独立思考,有一定抗压能力。
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 20k-30k·14薪 经验3-5年 / 本科
    科技金融 / 不需要融资 / 150-500人
    工作职责: 1.结合业务,梳理业务逻辑、疏通底层表结构及数据流转关系,搭建中间表; 2.建立全面业务风险监控体系,开发并维护自动化报表,跟踪核心指标变化,监控数据异常并通过数据分析定位问题,提出解决方案。 3.定期展开专题分析,包括但不限于客户画像、额度分析、营销流程和效果分析等,输出分析报告,提出合理的方案建议,辅助决策。 4.外部服务效果评测及对外数据支持(如机构尽职调查数据支持、监管报送等)。 任职资格: 1.统计、金融数学类及其他理工科背景专业,本科及以上学历,研究生优先; 2.3年及以上数据分析经验,熟悉SQL/python/SAS,熟悉tableau等数据可视化工具,有信贷风险数据分析经验者优先。 3.思维敏捷,自驱力强。
  • 音频|视频媒体,短视频 / 上市公司 / 500-2000人
    岗位职责: 1. 负责长音频业务数据指标体系建设和维护、核心指标的梳理和监控,数据看板的开发和维护工作; 2. 快速响应数据需求,通过现有的数据产品和提数平台获取数据并输出分析报告; 3. 通过数据专题分析,对业务问题进行深入研究,有效指导运营决策、产品方向。 岗位要求: 1. 三年或以上互联网数据运营或数据分析从业经历,统计、数学、计算机专业等本科以上学历; 2. 具有扎实的统计学、数据分析、数据挖掘基础。熟练掌握HIVE、SQL等相关数据提取工具技能,可熟练通过SQL独立完成相应数据分析需求,熟练掌握至少一种数据分析工具(SPSS、Python、R等),有一定的编程功底; 3. 有丰富的跨团队、部门的项目资源整合能力,能够独立开展项目。
  • 25k-40k 经验5-10年 / 本科
    科技金融 / 不需要融资 / 150-500人
    职位描述: 1、通过数据分析、业务预测等方法,搭建业务分析体系,协助制定用户运营策略。 2、协助开展专项客群策略研究(客群分析、行为模式等),为业务挖掘机会提供数据支持。 3、负责相关报表的开发及维护,并根据数据对市场活动、营销策略等进行评估及分析,为产品、运营、渠道等决策提供引导。 4、负责专项业务的分析与预测,KPI指标的制定与分解,建设指标跟踪监控体系,及时反馈业务变化给出分析建议。 岗位要求: 1、 重点大学本科或以上学历优先,金融相关知识优先。 2、 优秀的逻辑数理分析能力,数据敏感。 3、熟悉SQL编程语言。
  • 13k-26k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    职责要求: 1.负责数据模型的需求分析、模型设计、数据开发工作; 2.负责数据产品模型的维护; 3.负责数据管理类任务的开展实施,如数据建模,元数据管理、数据质量管理、数据资产梳理、数据资产评估与分析、数据运营等工作。 招聘要求: 1.***本科及以上学历,金融、经济学、数据分析、统计学等相关专业毕业; 2.熟悉掌握大数据及数据仓库原理; 3.熟悉Greenplum(GP)/Teradata(TD)/MPP/mysql/Oracle/Redis/MongoDB/Neo4j一种或者多种数据库,具备大型数据库(TD/GP/MPP)的工作经验优先考虑;熟悉掌握ERWIN等建模工具。 4.有很强责任心.团队精神和持续研究学习的能力,能够接受工作挑战。
  • 18k-21k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 30k-50k·15薪 经验不限 / 本科
    移动互联网,文娱丨内容 / 上市公司 / 2000人以上
    工作职责: 1. 负责公司内部商业化数据的开发和维护,为产品和营销团队提供数据支持和分析服务; 2. 设计和开发商业化数据仓库和数据集市,实现数据的采集、清洗、存储和分析; 3. 负责数据架构的设计和维护,确保数据准确性、完整性和安全性; 4. 参与业务需求分析和数据建模工作,编写SQL语句完成数据提取、转换和加载(ETL); 5. 能够独立完成数据问题的排查和处理,解决数据质量和性能问题; 6. 具有良好的沟通能力和团队协作能力,与不同部门的业务人员和技术人员合作,推进数据项目的进展。 工作要求: 要求: 1. 本科及以上学历,计算机、数学、统计等相关专业背景; 2. 2年以上数据开发经验,熟悉数据仓库和数据集市的设计和开发; 3. 熟悉大数据平台和工具,如Hadoop、Hive、Spark、Kafka、Flink等; 4. 熟悉数据仓库架构,了解数据仓库建模方法和技巧;
  • 25k-40k·15薪 经验3-5年 / 本科
    移动互联网,文娱丨内容 / 上市公司 / 2000人以上
    工作职责: 1、负责公司内视频云业务数据的开发和维护,为点直播业务与视频云研发团队提供快速、准确、灵活的数据仓库支持; 2、深入理解业务逻辑,完成数据模型设计及优化工作; 3、完成海量数据的获取、清洗、分类、整合等数据处理工作; 4、设计并实现对BI分析及报表展现、数据产品开发; 5、独立完成数据问题的排查与处理,解决数据质量与性能问题; 工作要求: 1、本科及以上学历,计算机、数学、统计等相关专业背景; 2、有数据建模基础,并能根据需求独立完成建模;熟悉数据仓库架构,了解数据仓库建模方法与技巧; 3、对数据有较强的敏感性,有较强数据分析能力,通过数据之间关系反推业务逻辑; 4、有基于hadoop和spark分布式平台的数仓经验,熟悉Hadoop、Hive、Spark、Kafka等技术并有相关开发经验; 5、熟悉Shell,Python,Perl至少一种脚本语言; 6、有公有云、视频云业务相关经验者优先; 7、有独立自主完成完整业务线数仓的整合搭建的经验优先。
  • 科技金融 / C轮 / 150-500人
    岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
  • 15k-30k 经验1-3年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    职位描述 负责从数据角度解决自动驾驶的相关问题,具体包括: 1. 搭建自动驾驶的全自动数据生产流程,高效支持各模块的数据挖掘、自动标注、算法评测、数据/真值可视化等任务 2. 进行数据挖掘/分析的策略研发工作,结合模型能力降低策略的开发成本和提升挖掘准召率 3. 利用多模态大模型的能力进行case自动分拣,提升路测和量产case的问题流转效率 职位要求 1. ***本科以上学历,有处理真实大规模数据经验。 2. 掌握python/C++编程语言,具备扎实的代码能力。 3. 参与过数据平台开发,有数据可视化/算法评测工具开发的相关经验。 4. 参与过自动驾驶线上算法模块开发,对数据驱动的算法开发有深刻认知。 以上职位要求满足其中一条即可