-
职能要求:熟练使用办公软件及函数公式,工作细心,责任心强。中专以上学历 上班时间:上午:8:00~12:00,下午:13:30~17:30 单休,月薪制,加班另算,25号发放工资 岗位职责: 1.负责现场的材料收货入库,出库登记,品种记录核对等管理工作; 2.掌握材料质量性能,对现场材料进行复检; 3.做好材料各种台账,账面整洁清晰,账物相符,损坏有报告,调整有依据; 4.做好材料进场调拨.转移领用等工作,优化材料使用,指导监督施工人合理使用材料,杜绝材料浪费。 任职要求: 1. 高中及以上学历,相关工作经验优先。 2. 熟悉仓库管理流程,具备基本的计算机操作能力。 3. 责任心强,具备良好的沟通能力和团队合作精神。 4. 能够适应一定的体力工作。
-
职位名称:仓库配货员 岗位职责: 1. 协助团队完成日常的配货拿货工作,包括收货、验货等。 2.保持仓库的整洁有序,确保仓库内的货架、地面等干净整洁,遵守公司的安全规定。 3.及时更新货物的记录,确保所有货物的记录准确无误,并协助完成库存盘点工作。 4.与团队成员保持良好的沟通和合作,协调好各个部门之间的工作。 职位要求: 1. 年龄在18-35岁之间,身体健康,能够承受一定的工作压力。 2. 做事不拖拉,手脚麻利,能够熟练地使用各种仓库设备。 3. 勤快讲卫生,能够保持仓库的整洁有序,并遵守公司的卫生规定。 4. 具备一定的数学和计算能力,能够准确地计算货物的数量和重量。 5. 良好的沟通和团队合作能力,能够与团队成员密切合作。 福利待遇: 1. 薪资待遇:面议。 2. 提供良好的工作环境和团队氛围。 3.采用调休制月休四天,中午休息一个小时。 欢迎有志之士加入我们的团队,共同发展壮大!
-
江苏美好超市有限公司 仓库招聘: 【散件配货员】 10名 工作内容:负责散件商品拣货、配货和分拨; 工作时间:白班8:00-17:00,晚班17:00-1:00,两班倒或固定晚班; 薪资:5000-6500元左右(基本+计件+各项补贴)
-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
早八晚六,月休息san天,节假日休息,中午包一顿午饭,熟悉稳定后涨工资 有时信息回复不及时可以直接按定位来面试 岗位职责: 主要负责仓库配货以及各家货物整理盘存,比如哪家需要出货需要将仓库内货物整理出来后打托后贴完标签缠绕膜包装,也不是天天发货,没事去车间包装,厂不大事也不会很多基本上不加班,到年底忙点,会叉车最好,不会可以学
-
1、给来货商品质检、贴上对应的码标、上货架等; 2、根据配货单进行配货; 3、其它工作服从仓库主管安排等; 要求:18-25岁,吃苦耐劳,诚实细心,懂简单的电脑操作; 工作时间 9:00-12:00 13.30-18:30 月休4天 薪资详情 薪资范围:4200-4800元/月
-
招聘:淘宝服装店仓库打包发货员1名 工作性质:临时工 工作时长大概一周 工资150一天 朝九晚六 工作内容:仓库服装打包员 工作轻松 要求:身体健康,五官端正 地址:苏州市姑苏区白洋湾街道 礼品城
-
主要职责:仓库配货,打包,发货,售后 要求:身体素质强,不能经常请假,熟悉电脑操作,简单ERP,Excel表格整理
-
负责把仓库的货物配送到指定地点,听从车队长的安排,平时负责车辆的管理,爱惜公司的车辆, 要求:C1驾照即可,吃苦耐劳,多跑多提成 工资:3200+300+500+提成
-
仓库打包分拣员 1、根据配货单快速、准确配出商品,快速有效完成当日打包订单; 2、货架的整理,将货物按照摆放规则,摆放整齐,已利于配货速度的提高; 3、根据库房缺货情况来货情况,合理安排配货打包时间,争取每天提前完成工作任务; 4、随时了解库存情况,做到库存的准确性,不多卖,不积压; 5、要做到失误率、重发率、漏发率等达到公司要求的最低标准;
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
职务描述: 1. 负责榕树业务数据仓库的开发与优化 2. 基于Hive/Flink等平台建设离线/实时数据仓库 3. 负责数据模型的设计、etl的实施,etl性能优化以及相关技术问题解决 4. 负责面向业务的OLAP,报表,数据提取工具等开发工作 职位要求: 1. 熟悉大数据相关技术:Kafka/Flink/Clickhouse/Doris/Hadoop/Hive/Flume等; 2. 熟练使用 Java , Python, Go 语言中的一种或者多种; 3. 具备数据库系统理论知识, 掌握主流数据库管理和应用, 精通SQL; 4. 了解统计以数据挖掘,机器学习以及人工智能技术; 5. 有高性能分布式平台开发经验, 有金融行业经验优先。