-
工作职责: 1、 负责全国仓库网络的布局及落地; 2、 负责制定供应商的日常考核机制及指标; 3、 负责日常业务数据的审核及账单审核; 4、 负责全国仓库现场精益化管理流程搭建; 5、 完善全国仓库SOP及赋能服务中心进行体系化的赋能及规划; 6、 作为WMS系统需求方,主导WMS的优化以及与其他系统对接; 作为需求方对于包装设计提出优化意见。 任职要求: 1、 本科学历优先,具有5年以上主机厂售后备件仓库管理工作经验,有团队管理经验者优先; 2、 熟悉新能源汽车售后备件的仓储流程,对于备件仓网规划有丰富的经验; 3、 对工作持积极认真的态度,责任心强,为人诚恳、细心、乐观、稳重,有良好的团队精神; 4、 能快速适应工作环境,并能在实际工作中不断学习,不断完善自己,做好本职工作; 5、 具备优秀的组织协调能力、抗压与学习能力,积极主动,具备团队精神并以工作结果为导向。
-
1.负责巡查监测广东省高速公路联网收费关键业务系统和视频云系统的运行状态,发现异常信息时按制度及时报相关单位或部门处理。 2.根据业务规程做好部级、省级各项联网运行指标督导和调度信息的发布,以及后续督办或其他专项督办等工作。 3.负责联网收费生产运行数据汇总与生产日报编制工作。 4.实时接收路段报送的联网收费异常事件信息,并根据工作指引提交相关单位或部门处理,并做好记录。 5.协助本中心业务部门对路段开展业务信息统计、咨询和沟通协调等。 6.配合开展省内通行卡调拨申请审批,纸券发放和各种特殊事件登记等。 7.做好调度大厅软硬件设施的轮巡工作,严格按照操作规程使用和维护设备,遇设备故障时,及时向调度部管理人员汇报。 8.对数据有一定的敏感性,熟练操作文档与表格处理软件,数据分析软件,有一定的文字表达能力。 9.具有良好的政治思想素质,能坚持原则,廉洁奉公; 10.具有较好的沟通能力和责任感,工作认真细致,有良好的团队协作精神,服从工作安排; 11.身体健康,年龄25周岁及以下,能适应岗位轮值夜班工作要求,能按排班要求参与24小时轮班工作。
-
岗位职责: 1、有产品思维,充分了解业务痛点,为业务提供数据层面的整体解决方案; 2、合理设计搭建数据仓库物理模型; 3、能够参与到源系统的设计过程中,根据数据应用出发,提出设计需求。 岗位要求: 1、 具有5年以上数据仓库相关工作经验 ; 2、 具有扎实的数据库知识,熟悉关系型数据库; 3、 精通SQL编程,能使用SQL语言处理复杂的数据逻辑; 4、 有数据仓库性能优化的实战经验,有大数据开发经验; 5、 熟悉Hadoop/Hive/Spark/Kafka等大数据平台; 6、 有金融行业相关工作经验,需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力。
-
职务描述: 1. 负责榕树业务数据仓库的开发与优化 2. 基于Hive/Flink等平台建设离线/实时数据仓库 3. 负责数据模型的设计、etl的实施,etl性能优化以及相关技术问题解决 4. 负责面向业务的OLAP,报表,数据提取工具等开发工作 职位要求: 1. 熟悉大数据相关技术:Kafka/Flink/Clickhouse/Doris/Hadoop/Hive/Flume等; 2. 熟练使用 Java , Python, Go 语言中的一种或者多种; 3. 具备数据库系统理论知识, 掌握主流数据库管理和应用, 精通SQL; 4. 了解统计以数据挖掘,机器学习以及人工智能技术; 5. 有高性能分布式平台开发经验, 有金融行业经验优先。
-
职位职责: 1、负责中台业务的数据体系规划、建设与运营; 2、通过对业务的洞察与理解,设计数据模型逻辑,持续沉淀并优化指标体系、数据资产管理、元数据管理; 3、推动数据产品化和服务化,设计体系化数据产品方案,与相关团队协作并推动产品落地。 职位要求: 1、本科及以上学历,能够熟练使用SQL/Hive; 2、能够运用可落地的分析方法解决业务问题,对业务敏感,能快速理解业务背景和逻辑; 3、良好的逻辑思维能力,善于沟通,有较强的项目推进能力; 4、熟悉中台业务大数据应用场景,有数据仓库、BI、数据挖掘、用户画像等方面的工作经验者优先。
-
数据仓库主题模型建设 数据仓库汇总模型建设 数据集市建设
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
职位职责: 1、对业务问题进行合理抽象和设计,设计和开发高质量的底层数据体系,驱动业务快速健康发展; 2、负责数据模型的架构设计、开发以及海量数据下的性能调优、复杂业务场景下的需求交付; 3、参与构建围绕数据安全、质量、效率、成本等方向的数据管理能力建设,在横向场景落地; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与数据平台架构设计,核心模块任务开发工作。 职位要求: 1、熟悉数据仓库体系架构、数据建模方法、数据治理等知识,有较强的SQL/ETL开发能力; 2、对数据价值探索感兴趣,较强的业务理解和抽象能力,能快速分析和理解问题; 3、掌握大数据技术栈,包括Hadoop/Hive/Spark/Flink/OLAP引擎等; 4、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于分析解决问题; 5、扎实的数据结构、数据库原理等基础知识,理工科本科以上学历,3年以上数据仓库建模经验; 6、具备良好的沟通技能、团队合作能力,责任心强;有财务、金融等行业应用经验者优先。
-
岗位职责: 1、有产品思维,充分了解业务痛点,为业务提供数据层面的整体解决方案; 2、合理设计搭建数据仓库物理模型; 3、能够参与到源系统的设计过程中,根据数据应用出发,提出设计需求 岗位要求: 1、 具有8年以上数据仓库相关工作经验 ; 2、 具有扎实的数据库知识,熟悉关系型数据库; 3、 精通SQL编程,能使用SQL语言处理复杂的数据逻辑; 4、 有数据仓库性能优化的实战经验,有大数据开发经验; 5、 熟悉Hadoop/Hive/Spark/Kafka等大数据平台. 6、 有金融行业相关工作经验,需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力;
-
公司直招!诚聘9名打包员!!! 公司做化妆品,上班地点在惠州市惠阳区镇隆镇皇后村宏昌建机C座1楼(导航宏昌建机直达) 上班时间:9:00-12:00,13:30-18:00,若当天订单未发完19点继续发货; 薪资待遇要求: 1、年龄要求:18-45岁,男女不限; 2、无经验要求,有仓储物流电商平台仓储经验优先; 3、试用期1个月(前7天适岗期),过7天适岗期最多可预支1000元; 4、有餐补、房补、医保社保,试用期综合到手薪资6k-8k; 5、月休5天,集体计件拿提成;
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
职责描述: 1. 理解数据业务,负责数据平台核心数据资产内容的设计与开发工作,实现高质量数据的互通与共享 2. 负责数据仓库、数据集市的数据模型设计 3. 参与数据仓库ETL规则设计和开发 岗位要求: 1. 3年以上金融/互联网数据仓库建设经验。 2. 熟悉数据仓库建设方法论,熟悉数据仓库架构和模型设计。 3. 熟悉数据仓库领域知识和技能,包括但不局限于:元数据管理、数据质量管理等。 4. 精通ETL开发和SQL开发及SQL性能调优。 5. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 6. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 7. 具备统计学、数学和数据挖掘知识基础,精通数据挖掘方法论,有数据分析和建模经验者优先。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
职责描述: 1. 理解数据业务,负责数据平台核心数据资产内容的设计与开发工作,实现高质量数据的互通与共享 2. 负责数据仓库、数据集市的数据模型设计 3. 参与数据仓库ETL规则设计和开发 岗位要求: 1. 3年以上金融/互联网数据仓库建设经验。 2. 熟悉数据仓库建设方法论,熟悉数据仓库架构和模型设计。 3. 熟悉数据仓库领域知识和技能,包括但不局限于:元数据管理、数据质量管理等。 4. 精通ETL开发和SQL开发及SQL性能调优。 5. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 6. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 7. 具备统计学、数学和数据挖掘知识基础,精通数据挖掘方法论,有数据分析和建模经验者优先。