• 15k-18k 经验1-3年 / 本科
    信息安全,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
  • 12k-18k 经验3-5年 / 本科
    工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    数据研发岗: 岗位职责: 1、负责业务需求承接和相关数据及报表研发工作; 2、承接业务需求,按照业务要求,按质按量完成需求交付,沉淀数据资产; 3、可独立完成需求拆解,数据模型设计,数据研发和开发及测试工作。 岗位要求: 1、计算机相关专业本科以上学历。 2、1年以上工作经验。 3、熟悉主流分布式计算工具,hadoop, spark, hbase等,精通SQL开发,熟悉MapReduce原理; 4、有一定的数据仓库开发经验,对各类数据模型设计方法有比较全面和深入的了解。 5、掌握java/python编程中的至少一种; 6、具备较好的数据抽象能力和主观能动性,能够从实际问题出发,提出数据解决方案并跟进方案落地;
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 社交媒体 / 上市公司 / 2000人以上
    职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 一年及以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
  • 11k-13k 经验5-10年 / 本科
    工具,企业服务 / 未融资 / 150-500人
    1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
  • 18k-25k 经验10年以上 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    "高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
  • 30k-35k 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1、负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2、负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3、负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4、深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5、与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1、5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2、具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3、具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4、具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5、有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
  • 15k-25k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1 . 基于公司能力为客户提供数字化转型咨询,负责业务、应用、数据和技术架构规划,帮助客户高效运用公司的产品和服务提升业务; 2.总结和沉淀对客户的最佳实践,形成可复制的解决方案,赋能前线销售和交付团队,帮助提升公司的技术竞争力; 3. 与销售、研发交付等团队紧密协作,共同推进标准产品与解决方案的销售,包括需求分析、方案设计、对客交流、商务合同签约等; 4. 对已经转化为交付的项目进行技术管理,对交付人员进行技术指导,确保项目的满意交付; 5. 管理客户的期望和公司的商业目标,确保交付的方案的可交付性和经济性 任职资格: 1.3年以上运营商或者其它垂直行业的数字化转型的解决方案或架构设计从业经历; 2.对运营商行业和至少一个垂直行业的数字化方向的解决方案的行业知识、业务知识、业务架构、应用架构有整体深刻理解,能够在细分领域独立完成客户调研、需求分析、业务设计、架构设计、并能在技术团队支持下,完成业务架构的落地方案设计; 3.对数据中台技术、大数据技术、AI技术,以及数据治理的方案比较熟悉; 4.熟悉一个或多个垂直行业的现状(如电力、交通、政务等)重点包括基本面、政策、行业趋势和一些业务过程的细节,能够提供典型的业务场景,并能以令人信服的说明如何用数字化转型方法驱动所处行业业务的发展; 5. 有过一个或者多个成功案例,并在案例中作为方案专家利用数字化转型能力帮助客户获得了显著价值; 7. 具有娴熟的沟通技巧,执行力强,具有优秀的团队合作精神、敬业精神; 8. 熟悉数字化顶层设计方法论,有良好的文档撰写、讲解能力。
  • 35k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
  • 消费生活 / 上市公司 / 2000人以上
    美团平台为用户的基础产品体验负责,还承担了美团的用户增长、市场和品牌营销、前端技术基础设施建设以及多条业务线的产品设计职责,建立了融合文字、图片、视频和直播等不同形式的內容生态系统,同时整合地图服务部、客户服务和体验部、企业业务部、网约车业务部等部门,致力于用科技提升美团数亿消费者、近千万商家、骑手、司机和团长的服务体验。美团平台拥有高并发、多业务的复杂场景,为技术深度优化提供了最佳实践可能。这里有简单、讲逻辑、有爱的团队,更是一块理想的实战场地,舞台广阔,欢迎你来尽情施展。 岗位职责 1、负责美团地图服务端或大数据方向的测试开发工作,包括地图相关后台服务或数据平台的功能测试、自动化测试、diff测试、性能测试及大数据测试等 2、全面把控地图多种服务系统或大数据的质量保障,根据业务特点、产品形态、系统架构输出相应的质量保障策略 3、通过技术手段提高测试效率及产品可测性,包括不限于自动化测试、流量回放、数据质检、测试数据建设、专项工具建设等 岗位基本需求 1、计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关(语言不限),至少2年以上后台服务端/大数据的测试工作经验,有一定的软件架构认知 2、对于质量工作具有长期的热情,有兴趣深入理解业务与质量保障工作,具备充分的韧性与主动性 3、有较强的owner意识,重视细节,追求卓越,也能够分步骤渐进式地达成目标 4、对质量保障体系有较清晰的认知,有把控大型项目质量的经验,在服务端/大数据测试领域深入理解或者有一定的技术产出 具备以下者优先 有大数据处理、地图服务端或数据生产服务等领域测试经验者优先 岗位亮点 美团地图是美团重要的基础设施,承载着助力美团各业务发展的重要使命。 自2016年成立以来,地图服务部通过与外卖、配送、到店、网约车、单车、优选、小象超市等多个业务的深度合作,充分利用了美团丰富的线上线下业务场景及商业生态,建立起有行业竞争力的地图服务解决方案,助力了业务的发展; 在C端体验方面,关注出行、找店体验,协同美团平台打造基于地图的用户产品,提供一站式消费与出行的闭环体验;面向未来,在智能驾驶领域积极布局,致力于在车内为用户提供体验更优的美团服务。 在质量部,我们有开放、直接的工作氛围,以逻辑和事实说话,而不是岗位级别和层级。我们尊重知识和常识,努力以业务视角思考自身工作。以技术为导向,致力于通过技术手段解决质量保障过程中的问题。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职标准: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.精通大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)和组件的原理及常用应用场景,至少有3年以上大型生产系统上管理经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 此岗位base南京深圳都OK~
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 20k-40k·15薪 经验不限 / 本科
    信息安全,企业服务 / 上市公司 / 2000人以上
    【职责描述】 1.负责ClickHouse应用项目的需求分析、系统设计、关键技术研究和核心代码编写; 2.配合业务部门梳理业务流程和数据模型,对设计模型设计进行建议和把关; 3.负责公司数据湖的性能优化,线上问题定位、线上SLA保障等; 4.负责ClickHouse内核技术的研究和新技术的引入,解决业务问题; 【任职要求】 1.计算机科学及相关专业,大学本科及以上学历,6年以上实际工作经验;至少3年以上的分布式数据库或数据库内核技术专家经验; 2.对ClickHouse或者相关海量数据分析和检索引擎至少有5年以上的应用经验,3年以上的调优、问题解决经验; 3.熟练掌握ClickHouse\GreenPlum\Doris\StarRocks\Presto\Trino\Impala、或者公有云分布式数据库ADB\Hologres\GaussDB等主流分布式、MPP数据库的主流技术、产品及应用场景; 4.精通数据仓库架构及原理,具备大型数据仓库架构设计、模型设计和处理性能调优等相关经验、精通数据库技术; 5.有ClickHouse内核开发、或者给CK社区贡献过源码者(不论是Commiter还是Contributor)优先; 6.至少精通一门编程语言,最好是C/C++\Java\Golang中的一门;
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。