• 15k-25k 经验1-3年 / 硕士
    金融 / 不需要融资 / 2000人以上
    工作职责: 1、从事人工智能领域研究工作,包括不限于行业应用的跟踪分析与研判工作; 2、开展公司人工智能技术的应用研究、融合规划及材料撰写工作; 3、负责智能项目管理工作,进行智能产品规划与设计工作; 4、完成其他相关重点工作。 任职资格: 1、硕士研究生或以上学历; 2、具有较强文字功底及逻辑思维能力;具有优秀的表达、沟通与协调能力; 3、有1年以上咨询研究工作经验,有咨询公司、第三方评测机构工作经验者优先; 4、喜欢跟踪和研究分析人工智能与保险领域最新动态,对人工智能、金融保险行业有一定了解。
  • 25k-40k 经验3-5年 / 本科
    金融 / 不需要融资 / 150-500人
    本科及以上学历,计算机相关专业。参与产品的需求分析、设计、开发和测试。参与系统架构设计,提出改进方案。能承受较强的工作压力。
  • 15k-18k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责数据清洗、数据分析、数据挖掘、数据服务等; (2)负责与外部门信息交换的技术管理工作; (3)利用技术手段对客户信息进行技术分析和应用服务; (4)运用数据分析建设业务模型,并持续跟踪优化; (5)负责领导交办的其他工作。 任职资格: (1)计算机、数学、统计学等相关专业本科及以上学历,具备扎实的专业基础知识; (2)3年以上数据技术领域工作经验,熟悉大数据平台架构与关键技术; (3)熟练掌握Hadoop、Spark、Kafka等大数据处理框架,具备丰富的实战经验; (4)具备良好的数据建模、数据挖掘与数据分析能力,能够运用SQL、Python等语言进行数据处理与分析; (5)熟悉数据仓库、数据湖等数据存储技术,具备数据治理与数据安全方面的经验; (6)具备良好的团队协作与沟通能力,能够适应快节奏的工作环境,具备较强的抗压能力; (7)对新技术充满热情,具备较强的学习能力和创新意识。
  • 20k-35k·15薪 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    【岗位职责】 1、基于专业的数据能力,歪马业务用户相关的数据监控及分析体系,预警或发现增长的主要问题,联动多部门推进落地一系列措施,达成目标。 2、负责经营数据分析、预算管理及增长节奏规划,围绕用户增长,制定并推进完成长短期目标实现。 3、和数据产品/研发团队协同,完成特定的模型及更深度数据能力建立。4、深入调研、分析用户特征及需求,协同数据、挖掘等团队,构建针对性、可落地的用户运营/画像体系。 【岗位要求】 1、3年以上相关运营经验,统计学、数学、经济学等专业优先;有数据运营、数据产品、策略运营经验者优先。 2、优秀的逻辑思维能力和数据分析能力,能独立完成数据监控与分析,熟练掌握SQL及相关分析软件。 3、具有良好的沟通协调能力和谈判能力,能高效推动跨部门协同,达成业务目标。 4、对酒水品类、即时零售领域有热情、有经验、有深入理解的优先。
  • 18k-21k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
  • 电商,企业服务 / 上市公司 / 2000人以上
    “开源大数据 - Serverless平台团队”隶属于阿里云计算平台事业部,是阿里巴巴大数据云原生体系的核心团队。我们的主要工作是围绕Kubernetes开发一个Serverless化的全托管底座Pyxis。Pyxis专注于不同大数据产品Serverless化的共性需求(例如:K8s控制面多租、网络隔离、资源管理和调度、安全等),具备业界领先的多云架构,可部署在主要的公共云供应商(AlibabaCloud、AWS、Azure、GCloud)上。依托于全托管底座,已有多款大数据Serverless产品(Flink、Spark、Starrocks、Dataworks、Elastic Search等)在阿里云上进行售卖。 职位描述: 1. 负责阿里云开源大数据 Serverless 平台底座的设计与研发,支持Flink 、Spark、Starrocks、Dataworks、Elastic Search等核心产品Serverless化 2. 负责阿里云开源大数据平台的资源调度技术,打造支持大数据实时离线一体化架构的资源管理平台 3. 推动主流开源大数据引擎云原生化技术演进,包括 Flink / Spark / Presto /… on Kubernetes 架构设计和研发工作 职位要求: 1、快速学习,不断突破技术瓶颈,乐于探索未知领域,随时准备好去面对新挑战 2、具备优秀程序员的基本素养,对代码有洁癖,遇到问题可以一查到底,善用工具,对工程效率有自己的见解 3、熟悉至少一门编程语言(GoLang、Java),有持续学习多种开发语言的意愿和能力 4、在计算机系统结构、操作系统内核、网络、分布式系统、存储等领域有所专长者优先 5、对Kubernetes、Docker等云原生技术有经验者优先
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 20k-40k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 25k-35k·13薪 经验5-10年 / 本科
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    职务描述: 1. 负责榕树业务数据仓库的开发与优化 2. 基于Hive/Flink等平台建设离线/实时数据仓库 3. 负责数据模型的设计、etl的实施,etl性能优化以及相关技术问题解决 4. 负责面向业务的OLAP,报表,数据提取工具等开发工作 职位要求: 1. 熟悉大数据相关技术:Kafka/Flink/Clickhouse/Doris/Hadoop/Hive/Flume等; 2. 熟练使用 Java , Python, Go 语言中的一种或者多种; 3. 具备数据库系统理论知识, 掌握主流数据库管理和应用, 精通SQL; 4. 了解统计以数据挖掘,机器学习以及人工智能技术; 5. 有高性能分布式平台开发经验, 有金融行业经验优先。
  • 25k-35k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    职位描述 1、负责贝壳一站式机器学习平台的设计研发与迭代改进,为业务提供稳定易用、高性能、高性价比的解决方案; 2、业内机器学习系统与平台前沿技术进展跟进与调研、落地; 3、参与模型训练,模型服务,模型管理,资源调度等机器学习相关问题的开发。 任职要求 1、计算机基础知识与编程基本功扎实,熟悉Go/Python/C++至少一种; 2、参与过大规模分布式系统的开发和维护; 3、良好的沟通能力和团队协作精神,严谨的工作态度与高质量意识 ; 4、善于学习新的知识,动手能力强,有进取心。 加分项: 1、有CUDA C/C++编程经验,有GPU并行计算编程基础(NCCL)经验优先; 2、了解分布式系统、容器相关领域技术,熟悉Kubernetes/docker等优先; 3、熟悉机器学习框架(Tensorflow/Pytorch/Jax)优先。
  • 20k-40k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、构建全面的人员画像体系,设计合理的数据采集和存储方案,确保画像数据的准确性和完整性; 2、针对特定场景下产生的问题进行深入分析,提供精准的诊断报告,为管理者开发辅助决策的信息参考工具,助力流程规范和优化; 3、与交付团队、管理层及相关部门紧密沟通,深入了解业务需求和痛点; 4、制定产品项目计划,明确项目目标、任务、时间节点和资源分配,确保项目按时交付; 5、建立产品运营数据监控体系,实时跟踪产品运行数据,分析业务指标,为产品决策提供数据支持。 职位要求: 1、具有结构化思考,处理过团队的运营管理流程,对复杂和多样的业务流程能充分抽象; 2、熟悉交付团队的运营管理的相关业务流程,站在运营使用视角设计产品和数据处理; 3、有数据驱动的产品设计思路,了解不同用工模式的特点和运作方式; 4、具有3年以上产品管理工作经验,有成功的产品项目案例,熟悉产品开发流程; 5、在安全审核产品、交付团队管理产品、运营后台产品等领域有相关工作经验者优先。
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、以抖音系全域数据为依托,参与构建海量数据下符合房产业务特性的数据仓库建设; 2、负责数据模型的架构设计、开发以及海量数据下的性能调优、复杂业务场景下的需求交付; 3、参与构建围绕安全、质量、效率、成本等方向的数据管理能力建设,并推动某细分横向场景的落地; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉数据仓库体系架构、数据建模方法、数据治理等知识,有较强的SQL/ETL开发能力; 2、对数据价值探索充满热情,较强的业务理解和抽象能力,能快速分析和理解问题; 3、掌握大数据技术栈,包括Hadoop/Hive/Spark/OLAP引擎等; 4、思维逻辑清晰,良好的自驱力、沟通能力和解决问题能力; 5、扎实的数据结构、数据库原理等基础知识,理工科本科以上学历,3年以上数据仓库建模经验; 6、具备流量数据体系建设&实时数据体系建设经验优先; 7、具备房产服务相关行业经验优先。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;