-
职务描述: 1. 负责榕树业务数据仓库的开发与优化 2. 基于Hive/Flink等平台建设离线/实时数据仓库 3. 负责数据模型的设计、etl的实施,etl性能优化以及相关技术问题解决 4. 负责面向业务的OLAP,报表,数据提取工具等开发工作 职位要求: 1. 熟悉大数据相关技术:Kafka/Flink/Clickhouse/Doris/Hadoop/Hive/Flume等; 2. 熟练使用 Java , Python, Go 语言中的一种或者多种; 3. 具备数据库系统理论知识, 掌握主流数据库管理和应用, 精通SQL; 4. 了解统计以数据挖掘,机器学习以及人工智能技术; 5. 有高性能分布式平台开发经验, 有金融行业经验优先。
-
职位职责: 1、以抖音系全域数据为依托,参与构建海量数据下符合房产业务特性的数据仓库建设; 2、负责数据模型的架构设计、开发以及海量数据下的性能调优、复杂业务场景下的需求交付; 3、参与构建围绕安全、质量、效率、成本等方向的数据管理能力建设,并推动某细分横向场景的落地; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉数据仓库体系架构、数据建模方法、数据治理等知识,有较强的SQL/ETL开发能力; 2、对数据价值探索充满热情,较强的业务理解和抽象能力,能快速分析和理解问题; 3、掌握大数据技术栈,包括Hadoop/Hive/Spark/OLAP引擎等; 4、思维逻辑清晰,良好的自驱力、沟通能力和解决问题能力; 5、扎实的数据结构、数据库原理等基础知识,理工科本科以上学历,3年以上数据仓库建模经验; 6、具备流量数据体系建设&实时数据体系建设经验优先; 7、具备房产服务相关行业经验优先。
-
职位职责: 1、负责飞书People产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责打通不同业务线数据内容,形成统一数据模型; 4、负责全产品线数据治理,提升数据资产质量。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品思维,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
工作职责: 1、负责企业风险数据仓库的设计、开发与性能优化; 2、将业务需求整理成数据需求,负责数据体系构建(数据接入、集市主题规划、数据治理、日常运维、BI体系)。 工作要求: 1、有数据仓库设计开发经验优先,有信贷相关经验优先; 2、熟练掌握SQL,有SparkSQL性能调优经验优先; 3、熟悉维度建模理论,实际主导过数仓项目者优先; 4、熟悉常用大数据组件,有实时数仓经验优先,有海量数据处理经验优先,有数据治理经验优先; 5、具有良好的沟通表达能力、理解能力及团队精神,责任心强,有一定的抗压能力,积极乐观。
-
岗位诱惑:出海文化 技术大咖 氛围nice 八险一金 餐食下午茶 工作职责: 1. 参与面向未来的全业务数据系统的运营建设,参与业务/产品关键指标体系,协助优化数据产出要求和规则; 2. 参与项目异常变化原因分析,参与优化迭代可视化数据分析产品; 3. 提炼数据驱动业务增长的逻辑,辅助产品迭代与业务增长; 4. 参与团队成熟策略与方法论的沉淀,提高部门效率; 5. 应用AI技术,参与挖掘业务目标与数据之间的潜在关联,辅助业务部门降本增效。 职位要求: 1. 2年以上数据分析相关工作经验;计算机等相关专业; 2. 熟练使用SQL、PowerBI / Tableau / LookerStudio等数据分析工具,了解Airflow等数据流程编排系统; 3. 具备数据分析领域知识; 4. 对游戏行业有热情,从事过游戏行业数据分析工作优先; 5. 良好的数据敏感度,逻辑清晰,沟通理解能力强,有主动意识,自驱力强,有较为清晰的人生规划和职业规划。 [在Castbox你可以得到]: 薪水:高薪高股,一定不会亏待了你; 成长:硅谷文化,在这里你可以和行业最资深的带头人取经; 环境:技术氛围浓厚,这里有极客们所向往和沉醉的开发环境; 福利: Mac办公 租房补贴 八险一金 餐食、下午茶和各种零食饮料不间断 生日会、肩颈按摩、羽毛球、足球赛、篮球赛 英语角和各种TeamBuilding
-
工作职责: 1、负责业务需求沟通和管理工作,能够判断需求真实性,紧急程度和业务价值; 2、数据分析产品管理和产品优化等工作,负责业务使用数据分析产品的可用性; 3、数据仓库数据开发类需求管理和开发进度管理; 4、管理数据服务类产品需求和交付工作,评估和迭代数据服务产品方案,通过产品化提升数据服务生产效率和准确率; 5、负责数据报表,产品,服务等日常运营与支持工作,为一个或多个业务条线服务,建立数据与业务良好的沟通桥梁; 任职要求: 1、本科及以上学历,5年以上数据分析或者数据产品经验; 2、对数据敏感,能快速理解业务,具有需求管理全流程的经验; 3、熟悉BI产品或者埋点产品,例如QuickBI,神策、帆软,具有类似产品管理工作经验; 4、熟悉数据服务产品工作,以及用户的使用方式; 5、具有良好的沟通表达和团队合作意识。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
工作职责 1.使用Java参与产品服务器端功能开发和维护,并对产品的性能、架构进行持续的改进 2.对关键场景进行性能优化 3.对关键模块进行重构,改善架构,提升系统稳定性 4.参与BI报表引擎研发 工作要求 1.本科及以上学历毕业生,理工科专业背景 2.有Java/C/C++/GO等任意一种语言的编程实践,热爱计算机编程,有良好的算法基础、掌握数据库技能者优先 3.具备良好的代码设计能力,追求高质量的代码 4.具备良好的表达和沟通能力以及强烈的责任心,热衷于解决具有挑战性的问题 5.在github上有实际被多人使用的开源项目优先,持续写技术博客的优先 6.有BI和报表领域开发经验优先
-
职责描述: 1. 理解数据业务,负责数据平台核心数据资产内容的设计与开发工作,实现高质量数据的互通与共享 2. 负责数据仓库、数据集市的数据模型设计 3. 参与数据仓库ETL规则设计和开发 岗位要求: 1. 3年以上金融/互联网数据仓库建设经验。 2. 熟悉数据仓库建设方法论,熟悉数据仓库架构和模型设计。 3. 熟悉数据仓库领域知识和技能,包括但不局限于:元数据管理、数据质量管理等。 4. 精通ETL开发和SQL开发及SQL性能调优。 5. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 6. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 7. 具备统计学、数学和数据挖掘知识基础,精通数据挖掘方法论,有数据分析和建模经验者优先。
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
数据仓库主题模型建设 数据仓库汇总模型建设 数据集市建设
-
* 主要职责: 1. 数据中台制定:与数仓和BI团队合作,制定数据数据中台的规划和系统架构,解决业务如何更快准稳地使用数据的问题 2. 产品规划和设计:负责数据产品的规划和设计,主要是数据架构设计。 3. 性能监控和优化:监控数据架构的性能指标,及时发现并解决架构问题,确保架构的稳定性和可靠性。 5. 协调沟通:与相关团队紧密合作,确保数据产品的顺利开发和推广。 * 职位要求: 1. **本科及以上学历,具有8年以上的相关工作经验。 2. 精通数据分析和产品管理的理论和实践,具备丰富的数据产品设计和开发经验。 5. 熟悉大数据技术和工具,如SQL、Hadoop、Spark等。 6. 具备良好的沟通和协作能力,能够与不同部门和层级的同事有效沟通,推动项目进展。 7. 具备强烈的责任感和自我驱动力,能够在快节奏的工作环境中保持高效率。
-
任职要求: 1.银行业数据开发工作经验2-4年 2.熟悉关系型数据库,熟练掌握SQL及调优,能熟练使用存储过程进行开发 3.熟悉大数据平台、分布式数据库者,有报表开发经验优先考虑 4.**本科及以上学历,计算机类、电子信息类、数学统计类相关专业 工作地点:济南市历城区科创路1001号 山东省城市商业银行合作联盟有限公司 上班时间:9:00上班,18:00下班,周末双休