-
职位描述 1、保障大数据相关计算和存储等核心系统的高可用,同时关注系统容量与稳定性; 2、深化系统可观测能力,提升监控智能化,帮助系统开发&团队快速定位故障; 3、推动提升服务的可靠性、可扩展性以及性能优化,保障系统SLA; 4、构建自动化运维方案,参与设计、实现能够保障线上大规模集群快速迭代和自动化管理的大数据运维平台; 5、提升大数据基础设施的资源利用率合理化,成本治理和分摊; 职位要求 1、本科以上学历, 计算机相关专业, 并有3年以上相关大数据SRE工作经验; 2、扎实的计算机软件基础知识; 了解 Linux 操作系统、存储、网络 IO 等相关原理; 3、熟悉一种或多种编程语言,例如 Go/Java/Shell; 4、具备系统化解决问题的能力,良好的沟通技巧和主人翁责任感; 5、熟悉Docker、K8S等容器化与云原生技术的架构与原理,对于常见的故障与问题有实践经验,具有分布式/大数据等系统经验优先(Hadoop/Spark/Flink 等);有腾讯云、aws等多云运维经验更佳! 6、具有算法思维,良好的数据结构和系统设计的能力者优先;
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
职位职责: 1、负责私有化项目的售后技术支持工作; 2、负责处理私有化项目的告警、故障响应; 3、负责运维脚本的开发; 4、负责公司产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、本科及以上学历,具有两年以上大型 IT 系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Impala、Clickhouse、Redis、Kafka等组件; 4、至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、至少熟悉一种脚本语言:Shell、Python 等; 6、对云平台有一定的了解,有使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
-
职位职责: 1、负责统筹和推进字节跳动财务系统的构建 (建模),搭建财务域的数据分析体系,包括KPI指标、报表、专题分析体系等; 2、推进数据可视化工作,提升财务域数据分析效率和数据价值转化等; 3、负责财务领域相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 4、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 5、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设; 6、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀财务行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化; 6、有财务领域相关经验积累优先。
-
1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
-
有完整数据类项目需求到落地的项目管理经验; 有快消零售业数据类项目管理经验优先。 Responsibilities: 1、独立负责大数据软件、大数据解决方案、数据洞察类等乙方项目的全流程管理,包括不限于:需求整理、进度跟踪、质量管控、风险预警评估、结项等项目过程管理; 2、负责项目资源的协调与组织,推动跨部门跨产品配合,确保项目团队各干系人协同工作; 3、负责项目实施交付,把控项目整体各阶段的进度,协调多方资源,制定项目计划,跟踪进度,控制总体成本,严守时间节点; 4、建立团队级别的报告,发现和诊断关键项目风险和问题,完成结项后效果跟踪、评估; 5、上级安排的其他工作内容。 Requirements: 1、本科及以上学历,计算机相关专业; 2、具有2年以上的数据类项目需求分析或软件开发项目管理相关经验; 3、熟悉流程管理、项目管理的基本理论、能够熟练操作办公软件、流程管理软件如office,visio,axure、axure、ppt等工具; 4、能够独立完成一个项目的业务需求分析工作,资料的编写; 5、具备较强的口头及书面沟通能力,能够与业务人员、开发人员、测试人员等顺畅交流,能准确说明需求的核心要点; 6、有较强的学习能力和抗压性,具备同时承担多种角色的潜力;
-
岗位职责: 1. 负责大数据平台的建设、数据SaaS应用开发; 2. 参与大数据平台系统架构设计,持续提升系统性能和稳定性,协助解决系统开发过程中的技术难题; 3. 跟进行业动态与技术发展,调研大数据领域前沿技术。 岗位要求: 1. 本科及以上学历,计算机、软件工程、数理统计等相关专业; 2. 三年及以上Java后端开发经验,一年以上大数据开发相关经验; 3. 熟悉Java、Scala等至少一种开发语言,掌握主流后端开发框架,如SpringBoot、Mybatis、SpringCloud等; 4. 熟悉Hadoop、Hbase、Hive、Spark、Doris等大数据相关技术,有大数据批处理优化经验更佳; 5. 熟悉Linux操作系统,熟练使用shell脚本,有Docker、K8S等容器云相关工具使用经验; 6. 工作踏实认真、责任心强,具备良好的学习能力,能够承受工作压力,具备良好团队协作精神及沟通能力。
-
*必须有独立完成 B端 完整数据产品项目的经验 *若熟悉AI大模型相关产品和应用场景,有大模型落地经验优先 岗位职责 1、负责公司快消品渠道数字化产品,包括但不限于商圈管理、渠道管理、品项管理和路线规划。能独立与业务部门、开发、算法等团队对接,确保现有产品和技术高效、高质量迭代和落地; 2、深入了解AI大模型相关知识,负责ToB业务的大模型 能力接入和验证; 3、通过数据分析和客户调研,及时调整产品方向、优化产品功能,通过定期迭代优化客户体验; 职位要求 1、本科及以上学历,2年以上大数据类产品工作经验 ; 2、具备良好的需求洞察、业务分析、自学和沟通协调能力,能够独立完成产品功能设计并形成方法论; 3、熟悉AI大模型相关产品和应用场景,有大模型落地经验、NLP、机器学习、推荐、策略产品等经验者优先; 4、有统计或机器学习的知识或者背景优先; 5、有快消行业经验优先; 6、能够承受一定强度的工作压力;
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;