-
工作职责: 1、 负责全国仓库网络的布局及落地; 2、 负责制定供应商的日常考核机制及指标; 3、 负责日常业务数据的审核及账单审核; 4、 负责全国仓库现场精益化管理流程搭建; 5、 完善全国仓库SOP及赋能服务中心进行体系化的赋能及规划; 6、 作为WMS系统需求方,主导WMS的优化以及与其他系统对接; 作为需求方对于包装设计提出优化意见。 任职要求: 1、 本科学历优先,具有5年以上主机厂售后备件仓库管理工作经验,有团队管理经验者优先; 2、 熟悉新能源汽车售后备件的仓储流程,对于备件仓网规划有丰富的经验; 3、 对工作持积极认真的态度,责任心强,为人诚恳、细心、乐观、稳重,有良好的团队精神; 4、 能快速适应工作环境,并能在实际工作中不断学习,不断完善自己,做好本职工作; 5、 具备优秀的组织协调能力、抗压与学习能力,积极主动,具备团队精神并以工作结果为导向。
-
岗位职责: 1、根据品类的项目规划、市场调研,按照集团的政策,推进项目合作谈判,进行资源整合并签订合同,对项目销售情况进行分析汇报; 2、专员门店季度、月度指标制定、月度销售报表复核、季度培训、促销活动安排、月度销售总结、专员门店商品和专员日常管理等工作; 3、项目门店销售管理,厂家资源整合,月度促销活动安排与销售跟进; 4、各项目工作管理规范制定、申请、存档; 5、协助各品类促销方案的销售跟进; 6、根据项目门店销售情况减少或增加项目门店数量; 7、安排及执行项目和专区门店拓展巡店工作; 8、根据地区需要,落实各专柜工作; 9、与门店协调促销员平时工作上遇到的问题 ; 岗位要求: 1、本科及以上,药学、市场营销、企业管理等相关专业; 2、执行力强,能快速理解领导的意图; 3、具备较强的沟通协调能力。
-
职位详情: 项目背景:此项目是我司为培养各类专业及管理人员的培养计划。成功录用的候选人将安排定制化系统专业的学习培养/成熟的人才发展体系/导师带教/专项课题研究,未来将快速成长为公司的核心专业人员或管理人员。 目标:通过轮岗和定岗半行兼顾深度和广度,全面理解新零售、Saas赛道的商业模式和经营链路,快速成长为懂业务的专家型或管理型人才。 主要发展方向:营销、运营、项目管理、职能,根据轮岗及综合评估后进行定岗。 任职要求: **本科及以上学历的应届生(或2022年毕业学生) 热爱互联网,希望在互联网,Saas赛道长期发展的; 具有优秀的逻辑思维能力,较强的沟通协调能力与快速学习能力。 一些加分项的技能:干净有些颜值、能在台上讲几分钟、能写出有逻辑有水准的PPT、能协调资源搞定一些事儿。 综合说明: EZR是一个有少年气,坚持长期主义,注重管理,有温度的组织;爱才,惜才、发现人才是从CEO到所有管理层级一直在贯彻执行的,也有那和一群人跟随这个组织在共同成长,只要你能够跟上,你不会在行业中落伍,还有机会在未来的行业中冒尖。 我们更希望寻找到对的人,在我们的人才培养体系下成长为具有驿氪(EZR)特色的,从底层能力和综合素质各方面都能够扛打、够硬核,能服和于我们的客户群体,又能为这个行业树立些标杆的人才,实现组织与人才的双向奔赴,一起走向更远的未来!
-
职责描述: 1. 理解数据业务,负责数据平台核心数据资产内容的设计与开发工作,实现高质量数据的互通与共享 2. 负责数据仓库、数据集市的数据模型设计 3. 参与数据仓库ETL规则设计和开发 岗位要求: 1. 3年以上金融/互联网数据仓库建设经验。 2. 熟悉数据仓库建设方法论,熟悉数据仓库架构和模型设计。 3. 熟悉数据仓库领域知识和技能,包括但不局限于:元数据管理、数据质量管理等。 4. 精通ETL开发和SQL开发及SQL性能调优。 5. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 6. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 7. 具备统计学、数学和数据挖掘知识基础,精通数据挖掘方法论,有数据分析和建模经验者优先。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
公司直招!诚聘9名打包员!!! 公司做化妆品,上班地点在惠州市惠阳区镇隆镇皇后村宏昌建机C座1楼(导航宏昌建机直达) 上班时间:9:00-12:00,13:30-18:00,若当天订单未发完19点继续发货; 薪资待遇要求: 1、年龄要求:18-45岁,男女不限; 2、无经验要求,有仓储物流电商平台仓储经验优先; 3、试用期1个月(前7天适岗期),过7天适岗期最多可预支1000元; 4、有餐补、房补、医保社保,试用期综合到手薪资6k-8k; 5、月休5天,集体计件拿提成;
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
岗位职责: 1、有产品思维,充分了解业务痛点,为业务提供数据层面的整体解决方案; 2、合理设计搭建数据仓库物理模型; 3、能够参与到源系统的设计过程中,根据数据应用出发,提出设计需求 岗位要求: 1、 具有8年以上数据仓库相关工作经验 ; 2、 具有扎实的数据库知识,熟悉关系型数据库; 3、 精通SQL编程,能使用SQL语言处理复杂的数据逻辑; 4、 有数据仓库性能优化的实战经验,有大数据开发经验; 5、 熟悉Hadoop/Hive/Spark/Kafka等大数据平台. 6、 有金融行业相关工作经验,需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力;
-
数据仓库主题模型建设 数据仓库汇总模型建设 数据集市建设
-
岗位职责: 1、有产品思维,充分了解业务痛点,为业务提供数据层面的整体解决方案; 2、合理设计搭建数据仓库物理模型; 3、能够参与到源系统的设计过程中,根据数据应用出发,提出设计需求。 岗位要求: 1、 具有5年以上数据仓库相关工作经验 ; 2、 具有扎实的数据库知识,熟悉关系型数据库; 3、 精通SQL编程,能使用SQL语言处理复杂的数据逻辑; 4、 有数据仓库性能优化的实战经验,有大数据开发经验; 5、 熟悉Hadoop/Hive/Spark/Kafka等大数据平台; 6、 有金融行业相关工作经验,需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力。
-
职务描述: 1. 负责榕树业务数据仓库的开发与优化 2. 基于Hive/Flink等平台建设离线/实时数据仓库 3. 负责数据模型的设计、etl的实施,etl性能优化以及相关技术问题解决 4. 负责面向业务的OLAP,报表,数据提取工具等开发工作 职位要求: 1. 熟悉大数据相关技术:Kafka/Flink/Clickhouse/Doris/Hadoop/Hive/Flume等; 2. 熟练使用 Java , Python, Go 语言中的一种或者多种; 3. 具备数据库系统理论知识, 掌握主流数据库管理和应用, 精通SQL; 4. 了解统计以数据挖掘,机器学习以及人工智能技术; 5. 有高性能分布式平台开发经验, 有金融行业经验优先。