-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
职位职责: 1. 负责抖音直播业务的离线与实时数据仓库的构建; 2. 负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 负责指标体系建设与维护; 4. 深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5. 参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6. 参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1. 熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2. 熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3. 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
-
职务描述: 1. 负责榕树业务数据仓库的开发与优化 2. 基于Hive/Flink等平台建设离线/实时数据仓库 3. 负责数据模型的设计、etl的实施,etl性能优化以及相关技术问题解决 4. 负责面向业务的OLAP,报表,数据提取工具等开发工作 职位要求: 1. 熟悉大数据相关技术:Kafka/Flink/Clickhouse/Doris/Hadoop/Hive/Flume等; 2. 熟练使用 Java , Python, Go 语言中的一种或者多种; 3. 具备数据库系统理论知识, 掌握主流数据库管理和应用, 精通SQL; 4. 了解统计以数据挖掘,机器学习以及人工智能技术; 5. 有高性能分布式平台开发经验, 有金融行业经验优先。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
1、根据业务需求进行需求分析、完成 BTL 教据建模、模型开发等工作,与应用、测试良好的沟通完成需求迭代; 2、模型分析,与存汇款、大教据平台等核心系统保持教据同步完整性及教据准确性; 3、快速完成生产问题排查与解决。 4、熟练掌握 SQL 语法,具备 SqI 调优能力,良好的教据库技术背景,能基于大教据平台进行教据建模及数据开发等工作。 5、良好的 ETL 处理能力,熟悉 Hadoop 、 Hive 、 vertica 、Sparksq;任务调度、 Linux 、 Shell 等相关技术栈,优秀的开发实战、性能优化能力。 6、对教据敏感,能在日常工作中对大教据进行教据分析、教据核验、教据治理优先。 7、熟悉银行存汇款等核心系统的业务及教据库模型优先。有较好的文档写作能力; 8、有较强的机行力;有较好的团队意识、适应能力、具有良好的沟通协调能力;抗压能力较强;
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
数据仓库主题模型建设 数据仓库汇总模型建设 数据集市建设
-
工作职责: 1、负责企业风险数据仓库的设计、开发与性能优化; 2、将业务需求整理成数据需求,负责数据体系构建(数据接入、集市主题规划、数据治理、日常运维、BI体系)。 工作要求: 1、有数据仓库设计开发经验优先,有信贷相关经验优先; 2、熟练掌握SQL,有SparkSQL性能调优经验优先; 3、熟悉维度建模理论,实际主导过数仓项目者优先; 4、熟悉常用大数据组件,有实时数仓经验优先,有海量数据处理经验优先,有数据治理经验优先; 5、具有良好的沟通表达能力、理解能力及团队精神,责任心强,有一定的抗压能力,积极乐观。
-
美团的使命是“帮大家吃得更好,生活更好”,公司聚焦“零售 + 科技”战略,和广大商户与各类合作伙伴一起,努力为消费者提供品质生活,推动商品零售和服务零售在需求侧和供给侧的数字化转型。 2018年9月20日,美团正式在港交所挂牌上市。美团将始终坚持以客户为中心,不断加大在科技研发方面的投入,更好承担社会责任,更多创造社会价值,与广大合作伙伴一起发展共赢。 岗位职责 1. 负责美团外卖国际化业务核心数据仓库及相关服务的研发工作,致力于数据驱动业务提升决策效率与质量; 2. 参与业务数据仓库的模型规划、SLA定义与优化、安全合规等工作; 3. 参与技术决策,制定研发规范,完成技术选型、流程设计和技术风险评估等相关工作; 4. 负责解决项目中关键问题和技术难题,线上疑难问题排查和解决,并给出合理的指导和改进建议; 岗位基本需求 1. 本科及以上学历,2年以上数据开发经验; 2. 熟悉大数据技术基本原理,包括Hadoop/Hive/Spark/Flink/OLAP引擎等,掌握数据仓库体系架构、数据建模方法、数据治理等知识; 3. 对数据价值探索充满热情,较强的业务理解和抽象能力,能快速分析和理解问题,能够将复杂的业务问题转变为清晰的数据需求; 4. 在经营、流量、履约、营销增长任一方向具备丰富的领域知识,熟练使用SQL与常见数据分析方法; 5. 做事有责任感和主动性,面对复杂业务问题,可以从技术和业务多角度推进,最终达成目标; 具备以下者优先 1. 参与过从零到一的全流程业务或者某领域的数据仓库设计与实现; 2. 主导过某核心领域数据指标体系设计与落地; 3. 充满好奇心,不自设边界; 4. 有过国际化相关从业经验; 岗位亮点 1. 能全面参与美团境外业务全球拓展的建设过程,了解境外业务全貌及参与系统架构快速演进; 2. 如果你对世界充满好奇心,在这里,你会接触到不同的国家、语言和文化,开拓国际视野,探索异域市场; 3. 如果你富有冒险精神,在这里,一个个陌生的国家等待你的开发,一个个全新的关卡等待你的挑战; 4. 如果你渴望快速成长,在这里,你可以经历新业务全球拓展的过程,不断解锁新技能,持续获得成就感;
-
职责描述: 1、负责数据仓库和ETL任务的开发、调优、运维等工作; 2、参与数据治理,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,与业务团队紧密合作,发挥数据价值; 5、协助处理数据项目设计与开发工作; 6、协助处理数据采集、清洗、建模、加工等数据开发工作 7、协助处理数据需求的需求理解、数据开发, 岗位要求: 1、大专及以上学历,计算机相关专业,有电商经验 2、精通 SQL,有较好的 SQL 性能调优经验,了解 hive/MySQL 的基本原理和调优策略 3、熟悉常用的数据处理方法和工具,精通Python/shell语言的一种或多种,编码基本功扎实 4、熟悉Hadoop数据开发工具使用及其原理,括Hive, Spark SQL等 5、精通主流数仓及BI平台,熟悉分布式、缓存、消息、NoSQL技术及其生态圈 6、具有良好的沟通能力,有团队合作精神,工作积极主动,抗压能力强
-
岗位说明: 1. 参与甲方(银行或保险公司)的数据ETL相关工作; 2. 随时可进场; 3. 实习期至少到25年3月份; 4. 实习期间表现优秀者可转正; 5. 本科生120元/天,研究生150元/天。 岗位职责: 1. 参与银行/保险数据仓库、数据集市等数据应用系统的架构设计; 2. 参与各项目数据治理方案设计,数据治理实施落地; 3. 参与ETL过程设计和ETL开发; 4. 参与项目相关技术文档的编写和维护; 岗位要求: 1. ***本科或以上学历,计算机专业优先; 2. 熟悉主流数据库(Oracle、SQL Server、MySQL)等主流数据库; 3. 熟练掌握SQL语言,能熟练运用SQL开发存储过程和函数等; 4. 熟悉Kettle、Sqoop、Flink、Streamsets等相关ETL工具更佳; 5. 掌握ETL设计流程基础知识,了解数据仓库原理和架构; 5. 掌握常用的Linux命令,能进行Shell脚本编写更佳; 6. 具备良好的表达和沟通能力,较强的抗压能力,责任心强,思路清晰。
-
岗位职责:1、参与建设具体业务统一的数据体系,能独立完成项目的系统分析,根据开发规范和数据模型设计实现数据开发任务,保证数据质量;2、参与数据仓库的设计和研发,进行海量数据模型设计、数据ETL开发;3、参与数据产品及应用的数据研发,发觉数据业务价值,助力数据化运营业务,构建丰富多样的BI应用。任职要求:1、从事数据仓库领域至少3年以上,本科及以上学历;熟悉数据仓库模型设计与ETL开发经验 ,有较为系统的海量数据性能处理经验;2、有从事分布式数据存储与计算平台上数据开发经验,熟悉Hadoop生态相关技术并有相关实践经验,包括HDFS、MapReduce、Hive、HBase,有Spark/Flink的开发经验尤佳;3、具备一定的JAVA、Python语言的开发能力,对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先; 4、有业务sense,责任心强,做事细致,具备较强的沟通协作能力、自我驱动能力,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现;5、有电商经验优先。
-
1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、掌握数据库存储过程开发经验; 3、有人寿保险相关项目经验优先: 4、有人身险反洗钱相关实施经验优先; 5、需要具备优化和搭建大数据处理系统能力,数据仓库相关经验优先;具有海量数据处理、互联网从业背景者优先; 6、善于沟通、 认真踏实、思维灵活。 本科以上学历,有3年以上数据相关开发经验。
-
职责描述: 1.参与数据仓库架构与数据开发,设计ETL流程、日志等数据 2.负毒数据平台相关数据工作,如研发、质量、保障与实施落地 3.参与实时数据流的数据处理、查询统计和分析预测等计算 4.日常数据监控以及数据预警,异常数据解读挖掘,并与业务沟通解决方案 5.管理数据类项目并如期实施交付 任职要求: 1.从事数据仓库领域工作1-3年或3年以上,实际参与模型设计及ETL开发经验,能独立完成相关的开发工作 2.做过2年以上bi项目经验 3.sql 精通 4. etl工具精通至少1种(ssis) 加分项: 1.会dax优先 2.精通ADF优先