• 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 35k-60k 经验1-3年 / 本科
    消费生活 / 上市公司 / 2000人以上
    美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
  • 18k-21k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 13k-14k 经验1-3年 / 本科
    移动互联网 / 未融资 / 150-500人
    1、负责数据管理平台数据集成优化工作,根据业务需求对集成任务及目标模型调整、配置;参与平台数据集成一致性保障工作,响应数据核对差异告警,分析、处置差异问题,并持续跟踪数据源解决。 2、负责数据管理平台(数仓)运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 3、配合数据中心运维团队和阿里云维护SRE团队完成部门内使用的阿里云大数据平台下资源配额的运维保障工作,保障部门内配额资源的正常运行和相应数据服务的稳定高效; 任职资格 任职要求: 有大数据、数仓项目经验的,有etl运维经验的优先。 1. 具有1年以上金融行业数据类项目运维经验,具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员; 2. 具备数据开分析能力,熟练掌握SQL等技能,掌握大数据平台、UNIX、LINUX和中间件的技能; 3. 具备数据分析,问题分析,逻辑思维能力; 4. 具有较强的沟通能力、表达能力,积极主动。有团队协作能力,良好的沟通能力和责任感,能承受较强工作压力,执行力强。 5.本科学历,学信网可查,毕业2年以下的请勿投递。 岗位特点: 有etl运维经验的优先,学信本 中华保险大厦,毕业2年以下的请勿投递
  • 15k-30k·16薪 经验1-3年 / 本科
    移动互联网,金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责金融数据仓库及平台的开发。 2、深度挖掘互联网金融相关数据,参与自研数据体系的构建。 3、精通 Python,根据业务需求设计实现方案,独立完成项目编码及自测。 职位要求: 1、学信网可查计算机科学与技术、软件工程等相关专业**本科及以上学历。 2、熟悉后端项目的上线规范,有 Python 项目部署的经验。 3、熟练使用 Git 版本控制工具。 4、熟练使用 Mysql、Sqlserver 等数据库。 5、熟悉 Linux 系统,能在 Linux 环境下的进行开发。 6、责任感强、思路清晰,具备良好的沟通能力和团队协作精神者优先。
  • 15k-30k 经验5-10年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    工作职责: 1、遵循公司制度与技术规范完成岗位工作; 2、独立完成常规项目系统级架构设计、评审,以及核心代码的开发、自测、文档等工作; 3、负责项目研发进度、控制研发质量和安全,牵头系统级常态化代码review工作; 4、分析、查找关联复杂问题的根本原因,制定解决方案; 5、识别软件开发风险,并做好风险应对预案; 6、外部协同,与关联岗位做好沟通,协同保证软件整体交付; 7、主动发现问题,优化软件架构或业务流程; 8、指导初、中级岗位人员完成开发任务; 9、完成上级交办其他开发相关工作。 任职资格: 1、***大学本科及以上,计算机相关专业; 2、至少5年以上的Java开发经验,其中2年以上的项目管理经验,具备2年及以上金融行业经验; 3、熟练掌握SQL开发、优化,掌握MPP数据库原理及开发技术; 4、熟悉java开发,熟悉J2EE技术体系,熟悉Spring、MyBatis、Springmvc、SpringBoot、SpringCloud等框架,以及微服务周边中间件; 5、能够熟练使用、配置、部署Weblogic、Tomcat等主流应用服务器; 6、了解Web2.0标准,具备一定的前端UI框架使用经验; 7、了解分布式、缓存、消息队列、负载均衡等机制和实现,具备大规模高并发访问或海量数据处理的开发经验优先,有I17新会计准则项目经验者优先。
  • 20k-40k 经验3-5年 / 本科
    科技金融 / C轮 / 150-500人
    岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
  • 金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 加入创新研发中心,你将会参与保险行业数字化创新变革的标志性核心项目建设,负责: 1.参与大数据平台研发设计,包括大数据采集、存储、分析及应用等领域; 2.参与需求分析、系统架构设计,并完成需求设计相应文档的编写; 3. 参与代码实现和性能优化,从用户角度推动业务发展。 任职资格: 携手同行,实现“数字中华”目标,我们希望你可以是: 1.即将毕业于**院校,取得*****本科及以上学历; 2.拥有计算机/应用数学/统计类相关专业背景,研究生尤佳; 3. 了解Hadoop/Spark生态圈产品的工作原理及应用场景,有一定Hadoop/Spark/kafka/flume/hbase/hive/ zookeeper等大数据生态圈知识和开发经验; 4. 熟悉Linux系统,了解shell编程,java/python基础扎实,了解jvm,熟悉常用软件的安装与调试; 5. 具备较强的数据分析、问题分析、逻辑思维能力,良好的沟通、协作能力,掌握svn、git等常用的团队协作工具。
  • 30k-50k 经验5-10年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    【岗位职责】 1. 分析数据安全合规需求,负责数据安全产品的技术选型和系统设计,保障技术架构的合理性。 2. 合理拆分开发任务,制定开发计划,带领团队成员按时交付高质量的代码。 3. 编写产品核心部分代码,确保产品的稳定性和安全性。 4. 跟踪和应用数据安全领域的最新技术和趋势,推动产品的持续创新和改进。 5. 协调与其他团队(业务部门、运维等)的合作,确保产品如期顺利上线。 6. 负责所开发产品的日常运维,进行系统性能调优和故障排查。 【岗位要求】 1. 本科及以上学历,计算机科学、信息安全或相关领域优先。 2. 具备至少5年相关工作经验,熟悉数据安全管理系统和技术工具的底层架构和实现逻辑。 3. 精通至少一种编程语言,熟悉Java和Flink、Go语言等,并具备良好的编码能力。 4. 具有数据安全领域相关知识,了解数据加解密、数据脱敏、数据分类分级等数据安全相关技术。 5. 拥有成功领导和指导开发团队的经验,能够有效分配任务和推动团队协作。 6. 熟悉云计算和大数据技术,如AWS、Hadoop等,将被视为加分项。 7. 熟悉常见的数据安全标准,如DSMM、DSG等,具备安全认证,如CISSP、ISO27701等,将被视为加分项。