• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/HBase/Doris 等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动大数据平台高可用性保障,协同大数据各组件团队制定稳定性标准、明确职责边界、推进稳定性项目落地; 2、负责运维流程标准建设和相应工具能力建设,包括稳定性目标管理、监控诊断运维能力、容灾应急方案等; 3、负责推进大数据组件风险治理和事故管理,降低平台事故、提升运维效率、降低运维成本。 职位要求: 1、计算机相关专业本科及以上学历; 2、具备大数据架构系统全景知识,熟悉HDFS、Yarn、Spark等基础组件原理,了解数据生产加工链路过程; 3、具备扎实的平台运维体系知识,熟悉大数据组件常见故障和运维流程,对大数据稳定性保障有见解和实践经验; 4、具备良好的项目推动能力、沟通能力和团队合作精神,能够独立解决问题并承担压力; 5、有大数据平台SRE经验优先,有运维平台工具建设经验优先; 6、有国际化经验或者英语能力为加分项。
  • 18k-30k·16薪 经验1-3年 / 硕士
    其他,人工智能 / 不需要融资 / 150-500人
    岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 18k-28k·15薪 经验5-10年 / 本科
    科技金融 / 上市公司 / 500-2000人
    主要职责: 1、根据业务需求,负责大数据中台相关系统的功能开发,同时确保系统高性能、高可用及可扩展性。 2、负责基于Java的后端服务开发,编写高质量、高效能、易维护的代码,并遵循良好的编程规范。 3、对现有中台系统进行维护与升级,解决线上问题,对复杂技术问题需要提供解决方案。 4、与产品经理、数仓开发、前端、测试等团队紧密合作,确保项目按时交付并达到预期效果。 任职要求: 1、计算机相关专业本科及以上学历,4~7年Java开发经验,有大数据中台开发经验者优先。 2、精通Java编程语言,熟悉Spring Boot、Spring Cloud等主流Java开源框架,有微服务架构设计和实践经验。 3、对于关系型数据库(如MySQL)及NoSQL(如MongoDB、Redis)有理解和实战经验。 4、熟悉分布式系统的设计原理和常用中间件(如Kafka、Zookeeper、RocketMQ等),能够进行性能调优。 5、具备良好的分析问题和解决问题的能力,能独立解决复杂的功能或性能问题。 6、具备优秀的团队协作和沟通能力,能够配合团队完成高质量的工作成果。
  • 其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 1. 负责跟进数据平台、计量引擎的规划、实施、监控和交付,确保项目符合IFRS17标准的要求; 2. 根据业务需求设计数据平台架构,确保数据的准确性、完整性和时效性。 3. 与业务团队紧密合作,准确理解和分析IFRS17标准对数据处理和报告的具体要求。 4. 与技术团队和供应商沟通,确保技术方案的实施符合项目要求。 5. 监控项目进度,管理项目预算和资源,处理项目中出现的技术或资源问题。 6. 协调内部和外部资源,监控项目里程碑和关键绩效指标。 7.定期组织项目会议,更新进度,协调解决方案的调整和优化。 任职资格: 1. 本科及以上学历,计算机科学、软件工程、信息技术、金融、保险等相关专业; 2. 至少具有3年以上数据平台搭建或项目管理经验,有在金融或保险行业从事过相关工作的优先; 3. 具备良好的沟通能力和团队合作精神,能够有效协调各方利益,推动项目进展具备较强的学习能力、分析能力和解决问题的能力; 4. 掌握数据库技术,如SQL,以及大数据技术,如Hadoop或Spark。 5. 熟练使用项目管理软件,如Microsoft Project或类似工具; 6. 具有直接或相关的IFRS17项目经验或对计量标准有深入理解者优先; 7. 英语流利,具备出色的听说能力者优先; 8. 持有PMP类似项目管理专业认证者优先。 9.具有精算工作经验者优先。
  • 科技金融 / 上市公司 / 500-2000人
    【岗位职责】 1. 参与大数据应用项目或平台相关研发、优化与维护,包括但不限于BI平台、语义平台、数据治理平台、指标管理平台、AI数据应用平台等,确保系统高性能、高可用。 2. 根据需求进行系统设计,包括技术选型、架构设计和性能优化,确保系统的稳定性、可伸缩性和安全性 3. 编写高质量代码,进行单元测试和集成测试,修复和调优系统重的问题和缺陷 4. 参与数据平台项目的需求分析、技术选型、方案设计等前期工作,提供专业的技术建议与可行性分析报告。 5. 深入研究数据处理算法与数据结构,优化数据处理流程,提升数据处理效率与质量,降低系统资源消耗。 6. 撰写详细的技术文档,包括设计文档、开发文档、接口文档等,确保技术知识的有效传承与团队成员的顺畅沟通。 7. 跟踪大数据领域新技术,推动平台技术升级与创新。 【任职要求】 1. 本科及以上学历,计算机科学、软件工程、数据挖掘等相关专业,5年以上数据平台开发相关经验 2. 精通Java及面向对象设计开发,有使用Spring经验者优先,有研究过优秀开源软件源码并有心得者优先 3. 熟悉常用中间件及微服务框架,了解底层原理,如Dubbo、SpringCloud、Docker、Redis、Kafka、ElasticSearch等,了解其一或部分,参与过开源产品二次开发者优先 4. 熟悉分布式,微服务相关理论,有参与过大型高并发高可用项目者优先 5. 具有团队合作精神,能够与产品和前端团队紧密合作,解决问题并推动项目进展 6. 具有良好的沟通能力和学习能力,能够清晰表达自己的观点并积极学习新的技术和工具
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 8k-13k 经验3-5年 / 本科
    移动互联网,电商 / D轮及以上 / 150-500人
    一、职位描述 1、对指定的多个网站进行网页抓取、数据提取;负责网络数据抓取规划、清洗以及汇总的开发工作; 2、负责特殊网页采集任务的分析及采集方案设计; 3、参与爬虫架构设计和研发,满足产品中数据抓取的要求; 4、参与爬虫核心算法和策略优化研究; 5、抓取调度和策略优化,实时监控爬虫的进度和警报反馈; 6、爬虫核心系统, 数据平台的研发维护。 二、职位要求 1、 本科及以上学历,计算机相关专业;3年以上开发经验,2年以上Hadoop相关工作经验; 2、具有数据挖掘、信息检索、机器学习开发经验; 3、精通HTML语言,熟悉JS,Ajax,熟悉Lucene、Nutch、Heritrix、larbin、HtmlParse、Scrapy、Crawler4j、WebMagic、WebCollector等开源工具; 4、精通网页抓取原理及技术,从结构化的和非结构化的数据中获取信息; 5、熟练使用一门以上脚本语言(PHP/PYTHON/JAVA/Node.js/SQL/R语言 等); 6、熟练Hadoop大数据平台的核心框架 (HDFS, Pig, Hive, Sqoop, oozie, Zookeeper, Spark, Storm, Kafka 等); 7、精通网络编程,熟悉HTTP传输协议,能模拟浏览器操作爬虫; 8、有丰富Java /Python开发经验者优先;熟悉MySQL、Oracle及有集群数据库开发经验者优先。 9、具备web挖掘等搜索引擎相关知识,有从事网络爬虫、网页去重、网页信息抽取的经验。以解决技术难题为乐,对程序完美有偏执追求;具有团队精神,有想法,敢于挑战自我。 
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、负责数据中台-商业化各个业务线数据仓库建设,构建商业化垂直数据集市; 2、定义并开发业务核心指标数据,负责垂直业务数据建模,如用户画像; 3、根据具体问题,设计并实现合适的可视化展示,构建数据持续观测平台; 4、参与数据平台的搭建,优化数据处理流程具体工作; 5、数据收集,反作弊数据仓库,用户数据仓库,UGC数据仓库,审核数据仓库的研发; 6、A/B测试实时ETL研发,转化漏斗分析平台研发。 任职要求 1、有Hive,Kafka,Spark,Storm,Hbase,Flink等两种以上两年以上使用经验; 2、熟悉数据仓库建设方法和ETL相关技术,对于数据的设计有自己的思考,具备优秀的数学思维和建模思维; 3、熟练使用SQL,对类SQL有过优化经验,对数据倾斜有深度的理解。了解特征工程常用方法; 4、具备扎实的编程功底,很强的学习、分析和解决问题能力,良好的团队意识和协作精神,有较强的内外沟通能力。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、建设全站的基础数据能力,提供丰富、稳定的短视频社区公共基础数据,探索更多数据能力的增量价值; 2、通过业务数据需求,提供数据采集埋点方案,跟进埋点全流程,交付结果,推进埋点质量相关建设; 3、各类数据专题体系(如房产、快聘等业务)的建设,通过数据+算法+产品,赋能业务,提供全链路、可分析、可复用的数据能力,提供更直观、更具分析指导性的产品化能力; 4、建设公司层面的核心数据资产,与业务场景深度结合,为社区服务提供数据服务化、数据业务化的数据&产品解决方案; 5、建设全站数据治理和管理体系,结合业务+元数据+技术,保障公司各个业务服务的数据质量和产出稳定。 任职要求 1、较为丰富的数据仓库及数据平台架构经验,期望通过对业务的深入理解,进行数据仓库、数据体系和数据价值的建设和优化; 2、有从事分布式数据存储与计算平台应用开发经验,熟悉Hive,Kafka,Spark,Storm,Hbase,Flink 等相关技术并有相关开发经验; 3、有系统化的思维和工程化的能力,有工程化落地的经验尤佳; 4、有较丰富的应用算法开发经验,对机器学习和AI有一定的了解。
  • 企业服务,工具,物联网 / 不需要融资 / 15-50人
    具备5年以上JAVA开发实际工作经验,计算机专业毕业,基础扎实; 熟悉TCP、UDP等协议通信过程,使用netty开发过自定义协议 熟悉MySQL、InfluxDB、Hadoop等数据库存储,熟练使用Maven、Git、IDEA进行开发; 熟悉分布式、RPC、缓存、消息队列、搜索等开源组件,如Zookeeper、Redis、RocketMQ、Kafka、ES等; 能够解决系统的高并发访问、海量数据处理等各种技术问题,不断进行系统建设及架构升级; 责任心强,工作积极,能主动学习,适应一定项目压力; 有数据平台或者物联网平台开发经验者优先。
  • 15k-25k·14薪 经验在校/应届 / 本科
    数据服务、人工智能 / 未融资 / 150-500人
    职责描述: 1. 负责/参与分布式实时数据集成(流式ELT/Ingestion)系统的设计与研发工作 2. 参与分布式云数据平台服务化解决方案的设计与开发 任职要求: 1. 热爱编程,熟练掌握JAVA/Rust/C等编程语言,具备较强的代码阅读,模块抽象,接口设计能力 2. 理解数据库基础原理,具备SQL开发/调优能力 3. 计算机、软件、通信、数学等相关专业本科及以上学历 4. 优秀的发现和解决问题能力,良好的沟通能力,具备团队合作精神
  • 20k-40k·15薪 经验在校/应届 / 硕士
    软件服务|咨询,数据服务|咨询,IT技术服务|咨询 / 未融资 / 150-500人
    岗位职责: 1、设计并实施灵活可扩展的支持数据建模、数据治理、数据质量、数据分析和优化的支持企业和产业数字化的数据架构; 2、设计并实施基于支持企业和产业数字化的数据架构并灵活集成统计、运筹和机器学习算法的数据平台; 2、负责数据平台的研发和迭代升级,持续提升平台稳定性,优化改进分布式存储、计算系统性能; 4、推动新型分布式高性能数据存储、计算、传输和访问技术在企业和产业数字化的落地应用。 任职要求: 1、硕士及以上学历,计算机基础扎实。熟悉计算机网络、Linux操作系统、分布式存储、算法和系统相关知识; 2、熟练掌握java、Scala、Go、C++编程语言的一种或多种,具备良好Coding技能和优雅的代码规范; 3、有过Apache开源生态分布式系统经验者优先,学习了解过Spark/Flink/Presto/Impala/Hadoop/HBase/Cassandra/GraphDB一种或多种引擎,有源码阅读或修改者优先; 4、强烈的上进心和求知欲,较强的学习能力和沟通能力,具备良好的团队合作精神。 加分项: 1、计算机领域相关的编程大赛获奖、专业期刊发表文章或者有发明专利等; 2、具备数据云平台、计算存储平台、可视化开发平台经验; 3、具备专业领域的计算机知识和技能: Alluxio/Hive/Hbase/RocksDB/Kafka/JanusGraph/GraphQL等。 4、对知识图谱、数据搜索、分布式算法、关系型数据库内核和优化、非关系型数据库内核和优化、云计算等技术有一定研究者优先。
展开