-
岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
-
职位职责: 1. 负责抖音直播业务的离线与实时数据仓库的构建; 2. 负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 负责指标体系建设与维护; 4. 深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5. 参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6. 参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1. 熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2. 熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3. 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
-
岗位职责: 1、参与基于Hadoop的大数据平台的研发工作与持续优化工作。 2、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。 3、利用大数据相关技术实现对数据的分析、挖掘、处理、及数据可视化等相关工作。 4、学习和研究新技术以满足系统需求。 岗位要求: 1、拥有数据处理相关专业背景。 2、对互联网产品有见解,关注前沿技术,有较强的学习能力、分析能力和动手能力。 3、熟悉常用分布式计算和存储框架,如Hadoop/HDFS/Spark等。 4、至少熟悉以下一种大数据技术组件,Hive、Impala、Hbase、Flume、Kafka、Zookeeper、Storm、Flink。熟悉资产管理、资金业务和金融工程相关领域业务者优先。 5、个性乐观开朗,沟通能力强,具备良好的团队协作精神,能利用自身技术能力提升团队整体研发效率。 6、多份工作经历需最近2份工作均满2年,或最近1份工作经历满3年。仅有一份工作经历的需满两年。 7.工作地点:上海,成都
-
【职位描述】: 1. 负责招聘工作的全流程,包括但不限于职位发布、搜寻评估简历、电话面试邀约、面试安排、背景调查、OFFER沟通等; 2. 维护和管理现有招聘渠道,包括但不限于校招、社招、渠道招聘,对现有招聘渠道进行分析,拓展有效招聘渠道,招聘高素质人才; 3. 深度理解、挖掘公司各部门用人需求,与业务团队不断对齐招聘标准,确定人才画像; 4. 梳理并优化招聘流程,推进实施用人部门评审、面试、录用流程; 5. 协助公司建立人才库,维护并管理人才库; 6. 依据公司的招聘流程、入职等手续,签订劳动合同,建立并管理人事档案; 7. 组织开展员工活动等。 【任职要求】: 1. 本科及以上学历; 2. 3-4年独立负责招聘全流程的工作经验; 3. 有互联网公司技术、产品、运营,广告公司、设计公司等招聘经验的优先; 4. 有在初创团队发展为规模公司过程中从0到1的招聘经验者优先; 5. 熟练掌握office等办公软件。 我们诚挚期待这样的你加入我们的大家庭: 1. 认同公司的文化和价值观,能很好地向面试者清晰地传递公司的文化和价值观; 2. 具备极强的学习能力和自我驱动能力,陷入招不到人的困境时不断突破寻找,坚持不放弃; 3. 热爱生活和工作,充满正能量,有自己的人生规划,是争做少数人的行动派; 4. 理解、认可并愿意践行以下四句话: 1) 敢于犯错、勇于承担 2) 不轻易说“不行” 3) 不重一时的激情、更重长久的坚持 4) 坚持自我批评与反思 以上是我们团队践行的基本理念,毕竟人以群分,如果你也是这样,我们工作会很愉快。 【福利待遇】: 希望你的贡献被及时认可,我们将提供有竞争力的薪酬、年终奖作为奖励; 希望你除了工作还有健康的身体和心情,我们将定期举行各种有趣的活动,主题你可以定; 希望你拥有舒适的工作环境,我们将给予DIY工位的自由以及可无限续杯的咖啡、零食、每日下午茶; 希望你在深圳没有后顾之忧,我们将向你提供满足人生不同阶段需求的各种福利计划——养老保险、基本医疗保险、失业保险、工伤保险、生育保险、住房公积金以及定期体检……
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
职责描述: 1、响应产业的用人需求,进行人才的简历挖掘、招聘流程的推进,全流程地跟进招聘项目; 2、校园人才/高端人才mapping。基于集团战略需求方向输出行业top人才情报,与产业共建外部后备人才池; 3、人才吸引赋能项目。响应产业用户需求,输出人才吸引解决方案并整合资源并落地; 4、专业平台建设。分析集团人才吸引现状和问题点,迭代平台制度和流程规范,沉淀专业能力 任职要求: 1、本科及以上学历,管理类相关专业优先,英语口语流利者优先; 2、3年以上人力资源相关工作经验,,有集团/互联网/猎头公司从业经验加分; 3、有招聘实操经验,较体系化的人力资源知识体系,有招聘项目管理经验; 4、关注产业经济、高科技、宏观政策等领域前沿,了解人力资本动向; 5、优秀的逻辑思维能力,较好的理解领悟和沟通力
-
1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
岗位职责: 1.熟悉所支持部门的业务和团队,理解业务发展战略,负责业务团队的组织招聘需求,对招聘团队结果负责。 2.对公司对应的业态做mapping和人才地图绘制。 岗位要求: 1.**本科及以上学历,人力资源、劳动经济、心理学、管理学等相关专业; 2.了解互联网,零售行业人力资源管理模式,丰富的实操经验,招聘工作经验3年以上; 3.具有极强的责任心,较强的计划性和实施执行能力,以及解决复杂问题的能力;具备良好的人际沟通及协调能力,有亲和力、口头和书面表达能力;思维清晰,有较强的抗压能力及团队协作意识。
-
岗位职责: 1、负责支持公司各技术团队组建,快速招聘所需技术岗位人才; 2、深入职位分析,拟定招聘方案,负责招聘方案的推进,保质保量完成招聘结果; 3、基于公司业务发展需要,进行区域市场调研、人才mapping及其它创新渠道拓展,应对人才市场的挑战; 4、整合招聘渠道和招聘数据,保证招聘各环节有序、健康运转。 任职资格: 1、***本科以上学历,3年以上软件开发类岗位招聘经验优先; 2、具备良好的高效交付能力和数据分析能力,善于从数据中发现问题; 3、具备良好的沟通协调能力和自驱力,能适应高强度的工作节奏; 4、有招聘中台工作经验或者项目化管理能力者优先
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。