-
职位职责: 1、负责数仓架构设计与人群、内容、投后结案等功能模块数据开发 2、负责数据治理工作,不局限于数据稳定性、数据质量等 3、参与OLAP引擎选型,解决实时数据查询痛点问题 职位要求: 1、具备数仓建模、数据治理设计与开发经验,掌握至少一门编程语言,如python、java、golang等 2、熟悉掌握Spark/Hive/Hadoop/Flink工作原理及应用,具有海量数据处理经验优先 3、熟悉掌握Clickhouse/Doris/ES/Druid其中一种或多种OLAP存储引擎,具备使用与调优经验优先 4、对数据敏感,具备较强的业务能力,能够挖掘业务痛点并解决加分 5、对互联网广告有较强的兴趣优先,具备良好的沟通协作能力、责任心
-
本科及以上学历,计算机相关专业。参与产品的需求分析、设计、开发和测试。参与系统架构设计,提出改进方案。能承受较强的工作压力。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 一年及以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1、参与大数据项目的需求分析、系统架构设计、并完成需求设计相应文档的编写; 2、深入理解数据业务,负责业务模型抽象、数据模型的设计开发,特征提取、分析和挖掘工作; 3、参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系; 4、负责运营商、金融、交通、智慧公园等大数据中台数仓项目和数据治理类项目建设。 任职要求: 1、本科及以上学历,计算机或者数学等相关专业,具备5年以上大数据和数据仓库相关工作经验。 2、熟练掌握大数据开发工具的使用(hdfs、hive、hbase、spark、flink、kafka等) 3、熟悉SQL开发,复杂SQL优化,熟练使用mysql、oracle、hive等。 4、熟悉java/scala、python开发语言。 5、具有良好的沟通、理解及表达能力,具有良好的抗压能力,可接受出差。 6、具有大数据系统架构能力、及有团队管理经验的优先考虑。
-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
工作职责: 1、技术投标:负责技术投标策略的研究,组织技术投标书的编写及校核; 2、定制化的解决方案售前支持:应对客户定制化需求,配合销售,协同产品线,提供解决方案设计、客户整体解决方案、可研报告及预算等编制; 3、售前客户交流及策划:完成日常的客户交流支持,包括:引导策划、产品或者解决方案的介绍和推介,协同销售进行营销全过程的技术支持、技术交流、合同谈判及技术交底等工作; 4、推进项目储备:负责推进公司产品在客户侧的项目储备。负责可研材料编写,为客户侧项目申报、论证评审等项目储备环节提供方案交流答疑等技术支持; 5、售前标准化:从工作流程、工作模板、产品优势提炼等方面,规范化、标准化售前工作,包括:技术投标标书标准化的投标模块、优秀案例整理等内容,以及解决方案定制化的规范和标准化。 任职资格: 1、熟悉电力营销相关业务,拥有2年及以上有电力营销业务相关工作经验; 2、具备较强的文字功底及文档、PPT撰写能力; 3、较强主动性和学习能力,协调产品和研发资源解决,形成和优化产品方案; 4、具备优秀的表达能力、性格开朗、工作态度积极,具有良好的团队合作精神; 5、了解主流新技术,具有信息化、大数据项目建设经验者优先; 6、具有售前、咨询工作经验者优先。
-
美团平台为用户的基础产品体验负责,还承担了美团的用户增长、市场和品牌营销、前端技术基础设施建设以及多条业务线的产品设计职责,建立了融合文字、图片、视频和直播等不同形式的內容生态系统,同时整合地图服务部、客户服务和体验部、企业业务部、网约车业务部等部门,致力于用科技提升美团数亿消费者、近千万商家、骑手、司机和团长的服务体验。美团平台拥有高并发、多业务的复杂场景,为技术深度优化提供了最佳实践可能。这里有简单、讲逻辑、有爱的团队,更是一块理想的实战场地,舞台广阔,欢迎你来尽情施展。 岗位职责 1、负责美团地图服务端或大数据方向的测试开发工作,包括地图相关后台服务或数据平台的功能测试、自动化测试、diff测试、性能测试及大数据测试等 2、全面把控地图多种服务系统或大数据的质量保障,根据业务特点、产品形态、系统架构输出相应的质量保障策略 3、通过技术手段提高测试效率及产品可测性,包括不限于自动化测试、流量回放、数据质检、测试数据建设、专项工具建设等 岗位基本需求 1、计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关(语言不限),至少2年以上后台服务端/大数据的测试工作经验,有一定的软件架构认知 2、对于质量工作具有长期的热情,有兴趣深入理解业务与质量保障工作,具备充分的韧性与主动性 3、有较强的owner意识,重视细节,追求卓越,也能够分步骤渐进式地达成目标 4、对质量保障体系有较清晰的认知,有把控大型项目质量的经验,在服务端/大数据测试领域深入理解或者有一定的技术产出 具备以下者优先 有大数据处理、地图服务端或数据生产服务等领域测试经验者优先 岗位亮点 美团地图是美团重要的基础设施,承载着助力美团各业务发展的重要使命。 自2016年成立以来,地图服务部通过与外卖、配送、到店、网约车、单车、优选、小象超市等多个业务的深度合作,充分利用了美团丰富的线上线下业务场景及商业生态,建立起有行业竞争力的地图服务解决方案,助力了业务的发展; 在C端体验方面,关注出行、找店体验,协同美团平台打造基于地图的用户产品,提供一站式消费与出行的闭环体验;面向未来,在智能驾驶领域积极布局,致力于在车内为用户提供体验更优的美团服务。 在质量部,我们有开放、直接的工作氛围,以逻辑和事实说话,而不是岗位级别和层级。我们尊重知识和常识,努力以业务视角思考自身工作。以技术为导向,致力于通过技术手段解决质量保障过程中的问题。
-
工作职责: 1、根据项目需求制定测试计划,设计测试数据、测试用例、搭建测试环境; 2、根据测试流程独立完成对电力产品系统测试,对产品的软件功能、性能及其它方面的测试,输出测试报告、版本发布; 3、配合开发进行模块级、系统级测试,复现现场问题,并协助开发解决、验证问题。 任职资格: 1、具有3-5年以上年软件及后台linux测试经验,有大数据平台测试经验,具备独立测试能力; 2、熟练使用常用的测试工具,能够独立搭建软硬件测试平台,并评价产品、写出产品的测试报告; 3、熟练掌握linux常用命令、通用的测试方法、WEB前后端交互原理、常用数据库,了解git、jenkins、jira等基本使用方法; 4、了解spark、oss、hive等相关大数据技术及使用方法,有云平台测试经验优先; 5、有国网项目测试经验,了解电力相关知识优先; 6、耐心细致,具备较强的问题分析能力及学习能力,有良好的沟通能力、团队合作精神、积极的工作态度和较强的责任心。
-
职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题,对系统架构设计有丰富的经验,能够给出合理的设计方案; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 三年以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;