• 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 35k-60k 经验1-3年 / 本科
    消费生活 / 上市公司 / 2000人以上
    美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动国际支付的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 30k-50k 经验不限 / 不限
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责飞书People产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责打通不同业务线数据内容,形成统一数据模型; 4、负责全产品线数据治理,提升数据资产质量。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品思维,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
  • 25k-40k·15薪 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。
  • 20k-40k 经验3-5年 / 本科
    科技金融 / C轮 / 150-500人
    岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
  • 25k-50k·16薪 经验3-5年 / 本科
    新能源汽车制造 / 未融资 / 2000人以上
    一、岗位职责: 1. 协同软件架构师针对特定计算平台设计智能驾驶软件架构 ; 2. 根据智能驾驶业务需求负责系统异构计算平台功能数据流业务实现 ; 3. 基于目标计算平台及软件业务需求实现高效数据吞吐,优化系统时延及计算资源开销; 4. 实现传感器抽象,硬件抽象,系统及软件模块业务和调度 ; 5. 实现基于SOA的智驾相关服务应用开发; 6. 针对智驾异构传感器,实现相关的高效数据流模块,支持上层应用业务。 二、岗位需求: 1. 本科或以上学历,计算机或相关专业本科及以上学位; 2. 精通至少一门编程语言(C++优先),注重编码规范; 3. 有异构计算平台研发经验优先,有智能驾驶功能研发方面经验优先; 4. 熟悉Linux操作系统;具有DDS,ROS,IPC, SHM等开发经验 ; 5. 良好的沟通表达能力,团队合作能力 。
  • 25k-40k 经验3-5年 / 本科
    金融 / 不需要融资 / 150-500人
    本科及以上学历,计算机相关专业。参与产品的需求分析、设计、开发和测试。参与系统架构设计,提出改进方案。能承受较强的工作压力。
  • 15k-30k·16薪 经验1-3年 / 本科
    移动互联网,金融 / 上市公司 / 500-2000人
    岗位职责: 1、负责金融数据仓库及平台的开发。 2、深度挖掘互联网金融相关数据,参与自研数据体系的构建。 3、精通 Python,根据业务需求设计实现方案,独立完成项目编码及自测。 职位要求: 1、学信网可查计算机科学与技术、软件工程等相关专业**本科及以上学历。 2、熟悉后端项目的上线规范,有 Python 项目部署的经验。 3、熟练使用 Git 版本控制工具。 4、熟练使用 Mysql、Sqlserver 等数据库。 5、熟悉 Linux 系统,能在 Linux 环境下的进行开发。 6、责任感强、思路清晰,具备良好的沟通能力和团队协作精神者优先。
  • 13k-14k 经验1-3年 / 本科
    移动互联网 / 未融资 / 150-500人
    1、负责数据管理平台数据集成优化工作,根据业务需求对集成任务及目标模型调整、配置;参与平台数据集成一致性保障工作,响应数据核对差异告警,分析、处置差异问题,并持续跟踪数据源解决。 2、负责数据管理平台(数仓)运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 3、配合数据中心运维团队和阿里云维护SRE团队完成部门内使用的阿里云大数据平台下资源配额的运维保障工作,保障部门内配额资源的正常运行和相应数据服务的稳定高效; 任职资格 任职要求: 有大数据、数仓项目经验的,有etl运维经验的优先。 1. 具有1年以上金融行业数据类项目运维经验,具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员; 2. 具备数据开分析能力,熟练掌握SQL等技能,掌握大数据平台、UNIX、LINUX和中间件的技能; 3. 具备数据分析,问题分析,逻辑思维能力; 4. 具有较强的沟通能力、表达能力,积极主动。有团队协作能力,良好的沟通能力和责任感,能承受较强工作压力,执行力强。 5.本科学历,学信网可查,毕业2年以下的请勿投递。 岗位特点: 有etl运维经验的优先,学信本 中华保险大厦,毕业2年以下的请勿投递
  • 13k-18k 经验5-10年 / 本科
    数据服务 / 不需要融资 / 50-150人
    岗位职责: 1、产品运营策划:负责产品运营策划工作,根据市场需求和竞争情况进行市场调研,协助确定产品定位、目标用户群体、功能需求和产品路线图,制定产品运营方案,并进行方案实施的相关工作。 2、用户分析与洞察:负责数据分析和用户调研,深入了解用户需求和行为特点,挖掘用户洞察并提出相应的产品改进和优化建议。 3、数据分析与效果评估:负责产品运营指标体系制定,对产品运营数据进行监测和分析,并提出相应优化方案。A/B测试等方法验证效果,并根据反馈结果进行持续优化。 4、运营数据报告与沟通:负责制作运营数据报告,向上级汇报产品运营情况、效果评估和改进计划。同时与团队成员、合作伙伴等进行有效沟通,推动项目顺利进行。 任职要求: 1、教育程度:计算机、市场营销相关专业;本科及以上学历。 2、工作经验:具备5年及以上专业工作经验 ,2年以上彩票行业工作经验。 3、知识:具备相关的产品管理、市场营销、商务管理等领域的专业知识;掌握市场/用户/需求研究、产品生命周期管理、产品运营等知识,了解彩票市场发展趋势 掌握与岗位工作相关的运营体系知识。 4、技能:熟练使用办公软件,掌握文档编写技能;具备一定的数据分析能力,能够熟练使用数据挖掘和分析工具(如Excel、SQL、Python等)进行数据处理和解读,并根据数据结果制定相应的产品优化策略。善于从用户角度思考问题,深入了解用户需求和行为特点,并能够提出相应的产品改进建议以提升用户体验。 5、核心能力素质:具有较强的学习能力、创新能力、产品需求识别能力和把控能力、逻辑思维能力、团队协作能力、沟通协调能力、解决问题能力、抗压能力,具备求知欲、责任心、进取心、钻研精神、严谨等素质。
  • 15k-25k·14薪 经验3-5年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。