• 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、综合收入和支出,预测用户生命价值,打造渠道投放和内容采买评估体系; 2、基于用户表现,建立用户衰减模型,打造DAU预测和多产品互导平台; 3、整合业务、财务、人力数据,提供一站式查询平台。 职位要求: 1、强悍的编码、系统设计和troubleshooting能力; 2、熟悉至少一个分布式框架,如Hadoop、Hive、Spark、Storm、Kafka、Flink等; 3、有扎实的数据结构和算法功底,熟悉统计学习、机器学习、深度学习中一项或多项; 4、有数据挖掘、指导业务策略的经验(如渠道投放、内容采买和产品互导等)优先。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
  • 40k-45k 经验3-5年 / 本科
    居住服务 / 不需要融资 / 2000人以上
    【岗位职责】 1. 技术规划与管理:主导公司级数据&智能项目的技术规划,制定技术发展路线,对机器学习、自然语言处理等前沿技术的研发与应用落地。 2. 核心算法研发:主导复杂业务场景的算法设计与优化,攻克关键技术难点,持续推动算法性能和稳定性的提升,针对大规模数据场景,提出创新解决方案。 3. 系统架构设计与优化:主导大规模分布式计算框架的设计与实现。 4. 业务支持与洞察:深度参与业务需求分析,与产品和业务团队紧密协作,从技术和数据视角提供高价值的洞察和决策支持,推动业务增长与效率提升。 5. AI及算法研究:持续关注人工智能领域最新发展,研究适合公司业务场景的新技术,并快速转化为可落地的应用方案。 6. 研发管理与项目交付:统筹数据项目的研发工作,确保项目按时交付、高质量上线; 【经验要求】 1. 计算机、数学相关专业***本科以上学历(硕士优先),在大平台技术经验优先; 2. 有过完整的数据体系搭建的经验,包括数据治理、指标体系搭建、数据挖掘和模型管理等,对数据质量、数据资产、元数据管理等有实战经验; 3. 精通机器学习、自然语言处理等AI核心技术,对AI模型在垂直行业的应用有落地的经验; 4.有一定团队管理经验的优先,在跨团队协作、资源调配和技术问题协同解决方面有实际成果;
  • 15k-30k·16薪 经验1-3年 / 本科
    移动互联网,金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责金融数据仓库及平台的开发。 2、深度挖掘互联网金融相关数据,参与自研数据体系的构建。 3、精通 Python,根据业务需求设计实现方案,独立完成项目编码及自测。 职位要求: 1、学信网可查计算机科学与技术、软件工程等相关专业**本科及以上学历。 2、熟悉后端项目的上线规范,有 Python 项目部署的经验。 3、熟练使用 Git 版本控制工具。 4、熟练使用 Mysql、Sqlserver 等数据库。 5、熟悉 Linux 系统,能在 Linux 环境下的进行开发。 6、责任感强、思路清晰,具备良好的沟通能力和团队协作精神者优先。
  • 18k-30k·15薪 经验3-5年 / 本科
    科技金融 / 上市公司 / 500-2000人
    岗位职责 1. 负责大数据平台(包括但不限于BI平台、语义平台、数据治理平台、指标管理平台、AI数据应用平台等)前端开发,确保系统界面友好、交互流畅 2. 参与数据平台前端架构的设计与规划,制定前端技术选型和开发规范,搭建可扩展、高性能的前端技术框架 3. 与后端团队协作完成接口对接与数据交互,确保系统集成无缝 4. 深入分析业务需求,将复杂的数据处理逻辑转化为直观易用的前端交互体验 5. 负责数据平台前端性能优化,通过代码优化、资源压缩等手段提升页面加载速度和响应效率 6. 研究应用前端新技术,关注行业前沿动态,推动前端技术创新升级 职位要求 1. 本科及以上学历,计算机科学、软件工程等相关专业 2. 3-5年数据平台或相关领域前端开发经验,有完整项目经历 3. 精通HTML/CSS/JavaScript,熟练掌握Vue/React/Angular等主流框架 4. 熟悉Webpack/Vite等构建工具的项目打包和优化部署 5. 掌握ECharts/Highcharts/D3.js等数据可视化技术,具备大数据量渲染优化经验 6. 熟悉前后端协作流程,能使用Postman等工具进行接口调试 【加分项】 1. 具备AI项目开发经验或AI技术应用能力 2. 具备技术博客撰写经验、开源贡献或社区活跃表现
  • 20k-35k 经验5-10年 / 本科
    科技金融 / 上市公司 / 500-2000人
    【岗位职责】 1. 参与大数据应用项目或平台相关研发、优化与维护,包括但不限于BI平台、语义平台、数据治理平台、指标管理平台、AI数据应用平台等,确保系统高性能、高可用。 2. 根据需求进行系统设计,包括技术选型、架构设计和性能优化,确保系统的稳定性、可伸缩性和安全性 3. 编写高质量代码,进行单元测试和集成测试,修复和调优系统重的问题和缺陷 4. 参与数据平台项目的需求分析、技术选型、方案设计等前期工作,提供专业的技术建议与可行性分析报告。 5. 深入研究数据处理算法与数据结构,优化数据处理流程,提升数据处理效率与质量,降低系统资源消耗。 6. 撰写详细的技术文档,包括设计文档、开发文档、接口文档等,确保技术知识的有效传承与团队成员的顺畅沟通。 7. 跟踪大数据领域新技术,推动平台技术升级与创新。 【任职要求】 1. 本科及以上学历,计算机科学、软件工程、数据挖掘等相关专业,5年以上数据平台开发相关经验 2. 精通Java及面向对象设计开发,有使用Spring经验者优先,有研究过优秀开源软件源码并有心得者优先 3. 熟悉常用中间件及微服务框架,了解底层原理,如Dubbo、SpringCloud、Docker、Redis、Kafka、ElasticSearch等,了解其一或部分,参与过开源产品二次开发者优先 4. 熟悉分布式,微服务相关理论,有参与过大型高并发高可用项目者优先 5. 具有团队合作精神,能够与产品和前端团队紧密合作,解决问题并推动项目进展 6. 具有良好的沟通能力和学习能力,能够清晰表达自己的观点并积极学习新的技术和工具
  • 13k-14k 经验1-3年 / 本科
    移动互联网 / 未融资 / 150-500人
    1、负责数据管理平台数据集成优化工作,根据业务需求对集成任务及目标模型调整、配置;参与平台数据集成一致性保障工作,响应数据核对差异告警,分析、处置差异问题,并持续跟踪数据源解决。 2、负责数据管理平台(数仓)运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 3、配合数据中心运维团队和阿里云维护SRE团队完成部门内使用的阿里云大数据平台下资源配额的运维保障工作,保障部门内配额资源的正常运行和相应数据服务的稳定高效; 任职资格 任职要求: 有大数据、数仓项目经验的,有etl运维经验的优先。 1. 具有1年以上金融行业数据类项目运维经验,具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员; 2. 具备数据开分析能力,熟练掌握SQL等技能,掌握大数据平台、UNIX、LINUX和中间件的技能; 3. 具备数据分析,问题分析,逻辑思维能力; 4. 具有较强的沟通能力、表达能力,积极主动。有团队协作能力,良好的沟通能力和责任感,能承受较强工作压力,执行力强。 5.本科学历,学信网可查,毕业2年以下的请勿投递。 岗位特点: 有etl运维经验的优先,学信本 中华保险大厦,毕业2年以下的请勿投递
  • 15k-30k 经验5-10年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1、遵循公司制度与技术规范完成岗位工作; 2、独立完成常规项目系统级架构设计、评审,以及核心代码的开发、自测、文档等工作; 3、负责项目研发进度、控制研发质量和安全,牵头系统级常态化代码review工作; 4、分析、查找关联复杂问题的根本原因,制定解决方案; 5、识别软件开发风险,并做好风险应对预案; 6、外部协同,与关联岗位做好沟通,协同保证软件整体交付; 7、主动发现问题,优化软件架构或业务流程; 8、指导初、中级岗位人员完成开发任务; 9、完成上级交办其他开发相关工作。 任职资格: 1、***大学本科及以上,计算机相关专业; 2、至少5年以上的Java开发经验,其中2年以上的项目管理经验,具备2年及以上金融行业经验; 3、熟练掌握SQL开发、优化,掌握MPP数据库原理及开发技术; 4、熟悉java开发,熟悉J2EE技术体系,熟悉Spring、MyBatis、Springmvc、SpringBoot、SpringCloud等框架,以及微服务周边中间件; 5、能够熟练使用、配置、部署Weblogic、Tomcat等主流应用服务器; 6、了解Web2.0标准,具备一定的前端UI框架使用经验; 7、了解分布式、缓存、消息队列、负载均衡等机制和实现,具备大规模高并发访问或海量数据处理的开发经验优先,有I17新会计准则项目经验者优先。
  • 20k-40k 经验3-5年 / 本科
    科技金融 / C轮 / 150-500人
    岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
  • 金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 加入创新研发中心,你将会参与保险行业数字化创新变革的标志性核心项目建设,负责: 1.参与大数据平台研发设计,包括大数据采集、存储、分析及应用等领域; 2.参与需求分析、系统架构设计,并完成需求设计相应文档的编写; 3. 参与代码实现和性能优化,从用户角度推动业务发展。 任职资格: 携手同行,实现“数字中华”目标,我们希望你可以是: 1.即将毕业于**院校,取得*****本科及以上学历; 2.拥有计算机/应用数学/统计类相关专业背景,研究生尤佳; 3. 了解Hadoop/Spark生态圈产品的工作原理及应用场景,有一定Hadoop/Spark/kafka/flume/hbase/hive/ zookeeper等大数据生态圈知识和开发经验; 4. 熟悉Linux系统,了解shell编程,java/python基础扎实,了解jvm,熟悉常用软件的安装与调试; 5. 具备较强的数据分析、问题分析、逻辑思维能力,良好的沟通、协作能力,掌握svn、git等常用的团队协作工具。
  • 30k-50k 经验5-10年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    【岗位职责】 1. 分析数据安全合规需求,负责数据安全产品的技术选型和系统设计,保障技术架构的合理性。 2. 合理拆分开发任务,制定开发计划,带领团队成员按时交付高质量的代码。 3. 编写产品核心部分代码,确保产品的稳定性和安全性。 4. 跟踪和应用数据安全领域的最新技术和趋势,推动产品的持续创新和改进。 5. 协调与其他团队(业务部门、运维等)的合作,确保产品如期顺利上线。 6. 负责所开发产品的日常运维,进行系统性能调优和故障排查。 【岗位要求】 1. 本科及以上学历,计算机科学、信息安全或相关领域优先。 2. 具备至少5年相关工作经验,熟悉数据安全管理系统和技术工具的底层架构和实现逻辑。 3. 精通至少一种编程语言,熟悉Java和Flink、Go语言等,并具备良好的编码能力。 4. 具有数据安全领域相关知识,了解数据加解密、数据脱敏、数据分类分级等数据安全相关技术。 5. 拥有成功领导和指导开发团队的经验,能够有效分配任务和推动团队协作。 6. 熟悉云计算和大数据技术,如AWS、Hadoop等,将被视为加分项。 7. 熟悉常见的数据安全标准,如DSMM、DSG等,具备安全认证,如CISSP、ISO27701等,将被视为加分项。
  • 20k-40k 经验5-10年 / 本科
    金融,人工智能 / 不需要融资 / 500-2000人
    1.负责整体数据仓库的体系建设,完成业务指标的全流程分层体系(ODS, DWD,DWM ,DM 建设); 2.负责负责日常数据ETL作业的开发和维护工作; 任职条件 1. 2-5年数据开发经验,有金融行业相关数据规划或生产经历; 2.熟练掌握Python/Java中的一种,熟悉常见的ETL开发工具和流程 3.数仓设计和开发者加分
  • 软件服务|咨询,专业服务|咨询 / 不需要融资 / 500-2000人
    工作职责:  1、负责大数据平台的技术规划和架构工作,主导系统的架构设计和核心模块开发,确保平台质量和关键性能指标达成;  2、负责研发技术发展方向,新技术领域的探索,将新技术引入大数据平台;  3、负责公司平台数据仓库的建模和设计工作,数据抽取,数据清洗,数据建模工作,ETL设计与开发,数据质量保障,元数据管理;  4、负责大数据平台研发团队的工作分配、指导和管理,确保团队工作有序达成;  5、负责技术架构文档的书写和完善,保证文档的及时更新。    任职资格 :  1、本科及以上学历,具有5年以上数据仓库模型设计和ETL开发经验;  2、熟悉Spark相关技术,3年以上Spark开发经验,有大数据架构师工作经验优先;  3、熟悉java或者Scala语言,具有hbase、es、kafka使用经验;  4、有优良的解决问题能力,有过海量数据系统开发经验者优先。