-
工作职责 1、本科以上学历 2、3年及以上大数据开发/架构经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验,有互联网公司或者金融保险企业级数仓建设经验优先 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等 3、精通SQL、熟悉Shell、具备海量数据加工经验,精通Hive/Spark/Flink等大数据计算框架 4、具备实时数据仓库经验,熟悉Kafka/Impala/Kudu/ClickHouse/Doris等大数据开源技术,具有Java/Python编程经验者优先 任职要求 1. 负责数仓领域模型的设计开发,参与离线/实时数仓建设; 2. 负责数据平台上的数据处理流程设计、开发与维护与优化; 3. 参与数据治理及数据相关项目,制定合理的工作计划,并在执行过程中管理风险。
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
职位职责: 1、参与游戏业务的离线和实时数据仓库建设和运维; 2、参与数据ETL流程的优化并解决ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、依托字节跳动成熟的大数据方案,在业务快速落地数据解决方案。 职位要求: 1、计算机相关专业本科以上学历,4年以上大数据相关工作经验; 2、掌握Hive、Yarn、Spark、Flink、Kafka、HBase等大部分大数据相关技术,了解其原理并可完成性能调优; 3、熟练使用HQL,至少掌握Python、Java、Scala、GO其中一种; 4、熟悉Linux操作系统,熟练Shell编程; 5、工作积极主动,能独立分析和解决问题; 6、有责任心,良好的沟通能力和团队合作能力; 7、有游戏行业经验候选人优先。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
岗位职责: 1、业务数据分析、调研及数据采集; 2、大数据平台的数据清洗、数据转换、数据存储; 3、持续跟踪大数据平台运行情况,监控数据同步链路,处理各类异常和故障; 4、数据治理相关开源项目产品的部署安装、性能调优和监控; 5、参与集团数据标准制定与规范建设; 6、完成集团数据中台及协助与支持各数源方按照相关数据标准与规范完成数据治理各项制度的落地及执行效果评估(包括元数据、主数据、数据标准、数据质量、数据安全、数据资产管理等)。 任职要求: 1、熟悉Oracle、MySQL等相关数据库及相关配套工具,熟悉SQL语言; 2、熟悉java,熟悉Linux操作系统; 3、熟悉Mapreduce、Redis、Kafka、Flink、spark等大数据组件的应用场景和配置规则; 4、了解大数据处理的流计算、分布式文件系统、分布式存储等相关技术; 5、了解容器、虚拟化、微服务框架等相关技术; 6、能接受出差,沟通能力良好,能够独立排查和处理问题。 7、具有ETL相关工具的实施、维护和使用经验或具有阿里云大数据工程师ACP认证证书者优先。
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
1、根据业务需求进行需求分析、完成 BTL 教据建模、模型开发等工作,与应用、测试良好的沟通完成需求迭代; 2、模型分析,与存汇款、大教据平台等核心系统保持教据同步完整性及教据准确性; 3、快速完成生产问题排查与解决。 4、熟练掌握 SQL 语法,具备 SqI 调优能力,良好的教据库技术背景,能基于大教据平台进行教据建模及数据开发等工作。 5、良好的 ETL 处理能力,熟悉 Hadoop 、 Hive 、 vertica 、Sparksq;任务调度、 Linux 、 Shell 等相关技术栈,优秀的开发实战、性能优化能力。 6、对教据敏感,能在日常工作中对大教据进行教据分析、教据核验、教据治理优先。 7、熟悉银行存汇款等核心系统的业务及教据库模型优先。有较好的文档写作能力; 8、有较强的机行力;有较好的团队意识、适应能力、具有良好的沟通协调能力;抗压能力较强;
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
工作职责: 1.承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2.负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3.设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4.负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1.具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2.具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3.精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4.熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5.对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6.具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
职位描述 负责从数据角度解决自动驾驶的相关问题,具体包括: 1. 搭建自动驾驶的全自动数据生产流程,高效支持各模块的数据挖掘、自动标注、算法评测、数据/真值可视化等任务 2. 进行数据挖掘/分析的策略研发工作,结合模型能力降低策略的开发成本和提升挖掘准召率 3. 利用多模态大模型的能力进行case自动分拣,提升路测和量产case的问题流转效率 职位要求 1. ***本科以上学历,有处理真实大规模数据经验。 2. 掌握python/C++编程语言,具备扎实的代码能力。 3. 参与过数据平台开发,有数据可视化/算法评测工具开发的相关经验。 4. 参与过自动驾驶线上算法模块开发,对数据驱动的算法开发有深刻认知。 以上职位要求满足其中一条即可
-
职位描述 1、开发灵活可靠的轨迹与行为预测算法,满足下游决策规划模块的需求。 2、探索基于learning的决策规划与端到端方案 3、构建数据闭环,完成模型自动化迭代。 职位要求 1、熟悉学术界前沿基于学习的预测与规划算法的研究,并有实际动手经验; 2、良好的编程能力,熟悉python, c++,掌握常见的算法和数据结构知识。 1、有相关研究经验,在顶会上有高水平论文发表; 2、参加kaggle或知名会议上举办的相关比赛取得优异成绩; 3、ACM/ICPC、CCPC、NOI、IOI等计算机/信息学竞赛获奖经历。 4、参与过预测算法在实车的部署,了解预测算法在部署中的实际问题。 5、了解传统的决策规划算法,并知晓能力边界与待解决问题。
-
职位介绍: 系统工程师(数据方向)将负责搭建和维护数仓及集群,根据需求提供产品和技术服务, 为上海迪士尼度假区提供各种系统及业务支持。您将管理日志管理平台和系统大数据平台,负责准实时和非实时的报表开发和数据分析。 工作内容: 1、负责数据仓库相关业务的数据统计分析; 2、负责数据仓库应用产品设计、开发、维护工作; 3、负责大数据集群资源管理、性能优化和故障处理和监控. 我们希望您: 1、有本科及以上学历,3年以上数仓相关工作经验,计算机及相关专业优先; 2、对 Flink,Spark,Kafka等流、批式计算框架有深入理解,在 Flink实时计算方向有项目经验优先; 3、熟悉各种大数据组件,如Hadoop、Hive、HDFS、Hbase、Kafka、Hudi,愿意从事大数据平台开发工作和维护; 4、熟悉分布式、高并发、高稳定性、海量数据的系统特点和技术方案; 5、熟悉Sql语法,有扎实的编程基础,至少熟悉python或java一种编程语言; 6、对于新技术、新应用有浓烈的兴趣,敢于承接挑战并有较强的责任心。 关于上海迪士尼度假区: 作为全球家庭娱乐业的领军企业之一,上海迪士尼度假区为我们的游客带来独具一格的服务和珍藏一生的记忆。加入我们,在这个充满奇幻、想像、创意和探险的全新世界里,为每年数以百万的度假区游客创造欢乐。无论您的迪士尼旅程走向台前还是幕后,您都拥有无限机遇。 * 我们致力于提供平等的就业机会,欢迎残障人士申请职位。 * 具体的福利基于职位有所不同,可能根据公司政策进行调整。 * 上海迪士尼度假区不会委托任何人或第三方机构向求职者收取费用。候选人请务必通过度假区官方招聘渠道获取度假区招聘的相关资讯。
-
职责描述: 1、探索平台内部及外部各类数据,形成完整的客户画像体系; 2、从金融产品的各个环节着手,通过量化分析的方式制定专题分析方案; 3、持续监控各产品线风险状况,对关键指标的异动进行及时的分析与原因查找; 4、和其他部门同事协同工作,进行跨部门业务沟通与合作; 5、能够独挡一面,完成数据分析相关工作。 任职要求: 1、***本科及以上学历,熟练掌握SQL语言,并至少熟悉SAS/R/PYTHON之一; 2、能够快速理解业务逻辑,擅长运用量化分析的方法解决业务问题;有金融贷款业务工作经验者优先; 3、能熟练运用Excel的数据分析模块进行数据分析,熟悉Powerpoint优先; 4、工作踏实,逻辑清晰,学习能力强; 5、具有团队管理经验或者相关意向者优先。
-
工作职责 1、数据模型:根据业务需求,运用机器学习、数据挖掘技术进行相关模型搭建,完成相应分析设计、数据清洗、数据挖掘、模型开发、模型上线和模型监测;承接风控模型及差异化策略在承保风控端的推动落地和效果监控; 2、 数据分析:承担健康险承保风险方向数据分析工作,搭建符合经营逻辑的承保风控指标体系,日常运营分析和监控; 3、 数据管理:完善承保过程数据库底层基础建设,根据日常数据分析和挖掘需求,搭建自动化报表和看板; 4、 AI视频设计类工作:根据核保文案通过AI视频工具生成行销辅助视频; 5、 完成上级交代的其他工作。 任职要求 1、本科或以上学历,数学、精算、保险学、统计学、计算机等相关专业; 2、具有1年以上数据挖掘、数据建模相关工作经验,熟悉基础统计理论和金融知识,掌握逻辑回归、GLM、Boosting、随机森林、神经网络等机器学习理论; 3、至少熟练掌握一门数据库语言(Oracle、MySQL)和一种数据分析软件(SAS、R、Python、SPSS),实施过保险风险挖掘项目经验者优先; 4、熟练使用AI视频类应用软件; 5、具备敏锐的金融大数据业务洞察力和良好的沟通能力,有一定数据产品思维,确保数据分析、数据建模与实际业务密切结合。
-
工作职责 1、负责规划和设计数据相关产品,制定产品的长期发展路线图; 2、深入了解企业数据管理的需求,与业务部门紧密合作,提供有效的数据解決方案; 3、主导数据产品的需求调研、分析和文档撰写,确保产品需求清晰明确; 4、协调开发、测试、运维等团队,推动产品的开发和上线,保证项目按时交付; 5、跟踪产品上线后的使用情况,收集用户反馈,持续优化产品功能和用户体验; 6、主动深入业务,理解业务运作逻辑,负责提炼或者对接业务数据需求,包含数据体系搭建、数据指标统计规则整理等,协调业务方和数据研发,通过工具、流程让数据供应做到及时、准确; 7、负责数据分析,包含用户分析、运营分析等,为业务方持续提供数据分析思路和解决方案支持。运用各类数据分析技术,实施深度数据诊断,并能沉淀关键分析思路,协助推动产品优化迭代。 任职要求 1、5年以上数据相关工作经验,3年以上数据产品经理工作经验优先,本科及以上学历,计算机、统计学、管理等相关专业; 2、熟练使用Axure等产品设计工具,熟练使用SQL语言,熟练使用PPT、EXCEL、WORD等办公软件; 3、优秀的数据分析能力,逻辑思维能力强; 有充分的数据敏感度,能从海量数据表现中提炼核心结果; 4、良好的表达能力、分析问题和解决问题能力、快速学习能力、沟通协调能力及团队精神; 5、有数据统计工具/策略产品/商业数据服务/AIGC相关产品工作经验者优先。