• 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1. 负责抖音直播业务的离线与实时数据仓库的构建; 2. 负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 负责指标体系建设与维护; 4. 深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5. 参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6. 参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1. 熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2. 熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3. 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 50k-65k 经验不限 / 本科
    旅游|出行 / 不需要融资 / 2000人以上
    工作职责: 1、负责集团数据管理体系的规划及建设,从整个体系流程、制度、工具、平台等所有能力上保障公司数据相关工作的稳定、安全、可靠、合规。 2、负责现有大数据工具平台的规划建设、架构设计,并在工作中根据业务发展不断提升团队、平台的水平和效率。 3、基于数据驱动,统筹公司级数据产品、数据治理和数据资产管理等相关工作,为业务提供数据价值。 4、负责团队部门的日常技术管理工作以及部门人员的统筹规划,加强团队成员培养和技能提升。 5、深入了解业务,对平台酒店、零售大数据进行分析,寻找潜在的生意机会,并实现新增收益; 岗位要求: 1、**本科及以上学历,985/211学历,计算机/软件工程相关专业毕业,至少5年以上大数据管理经验; 2、熟练掌握数据体系建设的各个环节,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法。 3、熟悉大数据生态Hadoop、Hive、HBase、Spark、Storm、Flink等开源平台。 4、具备数据方案和架构设计能力-非PPT架构。 5、具有较强的技术管理能力与实践经验。
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 15k-25k 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
  • 20k-30k·14薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、参与大数据项目的需求分析、系统架构设计、并完成需求设计相应文档的编写; 2、深入理解数据业务,负责业务模型抽象、数据模型的设计开发,特征提取、分析和挖掘工作; 3、参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系; 4、负责运营商、金融、交通、智慧公园等大数据中台数仓项目和数据治理类项目建设。 任职要求: 1、本科及以上学历,计算机或者数学等相关专业,具备5年以上大数据和数据仓库相关工作经验。 2、熟练掌握大数据开发工具的使用(hdfs、hive、hbase、spark、flink、kafka等) 3、熟悉SQL开发,复杂SQL优化,熟练使用mysql、oracle、hive等。 4、熟悉java/scala、python开发语言。 5、具有良好的沟通、理解及表达能力,具有良好的抗压能力,可接受出差。 6、具有大数据系统架构能力、及有团队管理经验的优先考虑。
  • 18k-21k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 18k-23k 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 25k-40k 经验5-10年 / 本科
    数据服务 / B轮 / 150-500人
    岗位职责: 1. 负责先进生产企业(能源电力、高端装备、电子信息等领域)的数智化项目售前支持与需求分析工作。 2. 售前阶段配合销售、项目经理准备售前材料,总结过往项目业务、技术经验,为客户提供技术咨询,如产品介绍演示、案例分享、方案设计等; 3. 交付阶段配合项目经理、技术经理与客户进行业务需求调研、细化方案设计,确定交付范围和计划,从业务需求分析和价值梳理的角度推进项目的顺利执行与交付。 4. 配合市场部门参与市场活动。 5. 参与公司内部行业研究。 职位要求: 1. 5年以上售前或咨询工作经验,或在项目中负责过业务分析与方案设计,可独立完成项目售前方案与需求分析设计工作; 2. 了解大数据、数据分析、人工智能等前沿技术领域,了解能源电力、高端装备、先进制造行业的相关基础知识,了解工业企业组织结构与工作流程; 3. 具备出色的文字/语言表达能力和沟通协调能力,有扎实的科技文档写作功底,具有编制项目可研、方案设计、需求分析、验收文档及宣讲PPT等能力; 4. 有能源行业、装备行业、电子信息行业数智化工作(售前咨询、需求分析)经验者优先,有工业大数据分析相关工作经验者优先; 5. 大学本科以上学历,硕士研究生优先; 6. 办公地点成都,主要服务西南地区客户,并按需支持其它地区客户,接受不定期出差和在客户现场支持项目执行。
  • 20k-40k 经验3-5年 / 硕士
    工具类产品 / 上市公司 / 2000人以上
    岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 飞书企业应用专注于泛财务领域。我们致力于建设基于大数据,搭建智能化、业财一体的财务中台,为互联网生态业务提供合规可控、效能卓越、业务洞察强的平台化能力,让经营者看清现状、预见未来。以技术中台的形式支撑财务税务,提供一站式产品能力,包括应收应付、发票、计税、付款,以及海量数据的清算、核算、报表、风控、分析。 欢迎对技术有孜孜追求的你,加入我们,一起探索和研究互联网时代的企业应用产品! 1、负责财务数据全链路质量保障和治理,包括但不限于数据同步、数据加工(离线+实时)、数据资产化(指标、标签等)、数据业务支撑(财报、管报、应用服务数据等); 2、负责数据类产品的质量保障方案设计及执行落地; 3、通过数据资产审计、制定准入准出机制、设计及执行数据校验核对、资产巡检、变更防控、仿真预演、监控应急等方式保障数据资产及数据产品的质量; 4、通过测试流程标准、方法和技术创新、自动化工具化等方式提升业务数据资产质量、数据产品质量、研测效率; 5、不断探究和建设一流的大数据领域技术风险保障体系和技术风险保障平台。 职位要求: 1、数据或数据产品相关的开发或测试4年以上经验,对数据仓库、数据挖掘、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如Java、SQL、Python、go等;有测试框架或质量平台开发经验、大型项目开发编码经验者优先; 3、熟悉数据仓库模型设计、ETL开发,维度建模设计方法,具备海量数据处理经验者优先;具备数据研发平台、数据服务等数据产品开发测试经验者优先;具备分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术者优先; 4、具备大型项目的整体质量保障经验者优先;具备性能、异常、稳定性、用例自动生成等专业测试领域经验者优先; 5、具备较强的逻辑思维能力,谈判能力和冲突管理能力;良好的沟通能力和团队协作能力;快速适应变化、结果导向、追求上进。
  • 电商平台 / C轮 / 2000人以上
    一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.大数据基础平台、应用平台功能设计和开发。 2.负责大数据平台及组件的调研选型,部署,日常监控及问题解决。 3.参与海量数据处理方案设计,提供业务系统技术支撑。 任职标准: 1.本科以上,计算机相关专业。 2.至少精通java/scala其中一种开发语言,熟悉主流后端开发框架。 3.精通大数据平台常用框架(hadoop/hive/spark/hbase/flink/presto/clickhouse/kafka)和组件的原理及常用应用场景,至少有3年以上大型生产系统上管理经验。 4.熟悉linux系统,熟悉常用的操作系统命令和shell脚本编写。 5.责任心强,有较强的沟通能力和团队合作精神。 6.了解docker、k8s相关技术,有大数据组件容器化经验优先。 此岗位base深圳南京都可~