-
岗位职责: 1、业务数据分析、调研及数据采集; 2、大数据平台的数据清洗、数据转换、数据存储; 3、持续跟踪大数据平台运行情况,监控数据同步链路,处理各类异常和故障; 4、数据治理相关开源项目产品的部署安装、性能调优和监控; 5、参与集团数据标准制定与规范建设; 6、完成集团数据中台及协助与支持各数源方按照相关数据标准与规范完成数据治理各项制度的落地及执行效果评估(包括元数据、主数据、数据标准、数据质量、数据安全、数据资产管理等)。 任职要求: 1、熟悉Oracle、MySQL等相关数据库及相关配套工具,熟悉SQL语言; 2、熟悉java,熟悉Linux操作系统; 3、熟悉Mapreduce、Redis、Kafka、Flink、spark等大数据组件的应用场景和配置规则; 4、了解大数据处理的流计算、分布式文件系统、分布式存储等相关技术; 5、了解容器、虚拟化、微服务框架等相关技术; 6、能接受出差,沟通能力良好,能够独立排查和处理问题。 7、具有ETL相关工具的实施、维护和使用经验或具有阿里云大数据工程师ACP认证证书者优先。
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
岗位职责: 1. 构建数据治理体系及数据质量框架,牵头完成数据治理实施方案的制定及落地,负责相关技术文档的输出; 2. 负责业务数据梳理及优化,形成数据质量标准和分级分类管理方法; 3. 协助定义数据标准及规范,负责数据治理产品中的数据标准管理,数据分级分类,元数据管理等模块的设计; 4. 研究市场趋势、做竞品分析,产品规划演进,包括数据资产目录,数据血缘管理,数据生命周期管理等模块的设计; 5. 深入理解行业数据,结合数据的技术特点设计数据模型; 6. 理解客户业务需求,将需求转化成对数据治理产品的研发需求,向客户进行项目方案汇报沟通; 7. 完成售前阶段的客户调研、分析和产品的适应度客户化分析,降低项目销售和实施风险。 岗位要求: 1、本科及以上学历,计算机\通信行业相关专业,优秀大学优先; 2、有意向从事数字化转型、数据中台建设相关工作,对数据治理工作有一定的理解; 3、熟悉DAMA、DCMM等理论,对数据模型、数据标准、数据质量、元数据、数据架构等领域有一定的理解; 4、2年以上的数据平台或数据产品开发经验,负责或全程参与过较大的数据项目; 5、熟练使用原型设计软件(Axure、Mockplus等)、思维导图软件(Mindmager、Xmind等)以及Office软件; 6、有责任心,工作积极主动,优秀的协调沟通能力,善于分析和解决问题; 7、有较好的文字功底和数据分析处理能力,有较强的团队合作精神。 8、有0-1-N的产品规划,设计,落地经验,并能成功推向商业化标品的经验。
-
岗位职责 1. 参与数据治理规划,制定详细的治理专项计划与实施方案,负责数据治理专项的整体推动; 2. 负责制定数据管理相关政策、制度、流程的方案,并推进实施落地; 3. 负责数据治理解决方案规划及实施,包括数据治理体系、数据架构与标准、数据质量、元数据管理、数据湖、数据主题联接、数据服务、数据分析和数据安全等方面的工作; 4. 分析数据现状,总结数据业务问题,并提出合理的解决方案。梳理数据资产(如数据目录、指标维度体系、标签体系、主数据等); 5. 研究与引入业界优秀的理论体系、解决方案、工具装备等。 任职要求 1. 本科及以上学历,数学、计算机或统计学专业,5年及以上数据管理相关工作经验,有制造行业数据相关背景优先; 2. 熟悉数据管理和数据治理相关理论与方法,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法; 3. 熟悉数据项目开发流程,能和设计人员、数据开发人员、运营人员紧密配合,协调和推进各方面工作; 4. 熟悉业界先进的数据治理相关产品和软件,了解数据湖、Hadoop、Spark、数仓、BI等平台和工具的优先; 5. 有良好的的沟通能力、逻辑思维能力和推动力; 6. 对DAMA、数据成熟度评估等方法论有较深刻的理解,有CDMP,CDGA、CDGP等数据治理证书优先。
-
工作职责: 1.负责搭建数据监控指标体系,及时发现业务问题,高效诊断和分析,提示风险和机会; 2.负责设计并落地核心指标,推进数据可视化,将常规报表落地平台; 3.负责高效支持来自管理层等各方的数据和分析需求; 4.能根据实际业务完成较深入的专项数据分析,并形成数据分析报告; 5.完成领导交办的其他工作。 任职资格: 本科及以上学历,计算机、大数据及相关专业,3年以上工作经验,具备行业、监管数据治理经验者优先面试。
-
需要有数据治理经验(元数据,参考数据和主数据,数据质量,数据标准,数据架构,数据建模等)
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
工作职责: 1、对接企业管理、运营侧的用户数据需求,对数据需求进行分析归纳,输出需求文档 2、基于业务需求,配合业务完成业务流程及业务指标梳理,参与KPI指标设计,撰写需求文档PRD,协助数据团队完成相关数据报表、数据服务及BI看板的设计与开发; 3、有良好的用户需求分析把握能力,能够独立完成需求调研,捕获用户需求痛点,扩展需求,挖掘潜在需求 任职资格: 1、至少3年以上需求分析或产品设计经验 2、了解保险行业业务,具有保险行业数据中台、数据仓库、数据平台、数据应用、数据治理项目经验者优先 3、具备较强的需求分析、产品设计能力、文档撰写能力 4、有数据分析经验,数据敏感性高,熟悉SQL语言、有数据类项目经验优先; 5、候选人需具备较强的逻辑、沟通与组织能力和抗压能力,有项目协调/团队管理的经验优先
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
-
职位职责: 1、负责懂车帝商业化服务商&商家治理优化,监控核心风险指标,以数据定量分析的方式定位问题,对相关风险做策略控制,对策略的效果做持续监控和优化,完善风险和体验的平衡; 2、基于业务目标及行业生态特点,搭建全面、准确、客观的指标和监控体系,清晰洞察业务全局,定位业务问题; 3、结合数据分析,负责落地执行巨懂车服务商及商家治理业务,优化流程设计,解决协同问题; 4、关注行业治理政策调整,根据业务需求及时调整治理管控规划。 职位要求: 1、本科以上学历,具有3年以上电商行业治理相关工作经验,有服务商治理经验者优先; 2、对电商质量法规有充分了解,熟悉服务商&商家生命周期管控策略,能独立解决各类问题; 3、有良好的数据分析和逻辑判断,并且较强的协调能力、抗压能力,能经受各种挑战; 4、有良好主人翁意识,结果导向。
-
岗位职责: 1.对小象超市站配方向在履约和服务规范方面的体验和治理效果负责; 2.负责体验治理方向的产品体系和产品策略建设,包括但不限于判责、申诉、处置等; 3.能建立一套工作机制,判断当前治理场景的改善空间、发现现存问题,不断完善服务治理策略并驱动落地; 4.持续思考和探索新技术在服务治理方向的应用,包括AIoT、智能硬件等; 5.与业务运营、产品、研发等团队合作,提升多方协作效率并确保项目落地。 岗位基本要求: 1.本科及以上学历,具备3年及以上策略或平台产品经验; 2.有较强的同理心、数据分析和需求分析能力,能从用户视角考虑问题、从数据中洞察业务问题、从繁杂的业务问题中发现本质; 3.有较强的自我驱动力,能主动驱动事情发生; 4.目标导向并能结构化思维,具备良好的沟通能力、及协同推动能力,拥有强烈的责任心。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
主要职责: 1. 负责媒体业务的大数据平台的建设工作,包括埋点、收集、加工、应用全流程的建设和迭代工作; 2. 负责数仓建设,制定数据规范,完善数据治理,提升数据产出效率和质量; 3. 对接业务方,为业务服务提供高效率、高可用的数据服务/数据产品; 4. 培养团队成员,组织技术分享,促进团队成员进步。 岗位要求 1. 计算机相关专业本科及以上学历,5年以上大数据方向工作经验; 2. 熟悉数据仓库建模,有实际的实时/离线数仓建模经验,具备一定的Java研发能力; 3. 深入了解大数据技术栈,熟悉spark、flink、hive等技术; 4. 熟悉springboot及相关技术; 5. 良好的沟通能力,团队意识以及跨团队协作能力; 6. 有团队管理经验优先。