• 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 12k-24k 经验3-5年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责公司业务系统数据库的性能维护、安全性管理; 2.负责公司数据可靠性维护、数据备份和数据容灾; 3.对开发项目提供数据库技术支持; 4.负责数据库运维自动化脚本编写。 任职要求: 1.计算机、软件相关专业本科及以上学历; 2.3-5年相关工作经验; 3.较强的沟通学习能力,对技术有热情,有能力直接跟踪和学习最新的技术和知识; 4.有python或者shell编程能力; 5.有oracle、mysql、mongodb、hadoop至少一种运维能力。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 团队介绍:我们是「豆包视频生成模型-PixelDance」团队,我们专注于开发视频生成模型,解决视频生成的关键问题,包括但不限于高动态性视频生成、内容一致性保障。构建行业领先的视频基础模型,引领技术的未来潮流。视频生成工程团队的工作涉及到模型生产的全周期流程,在这里,你有机会参与到模型的数据生产、训练加速、推理加速、服务部署的每个环节。同时你将接触到最先进的视频生成技术、海量的数据、大规模的集群,我们期待你能够和我们的模型一同Scale UP。 1、视频处理端到端性能优化:负责视频数据处理的性能提升,包括但不限于视频编解码优化、蒸馏、量化、Kernel优化;对异构资源进行合理分配和优化,充分利用各类硬件资源提升视频数据处理能力,提高资源利用率以应对海量视频数据的挑战; 2、数据层处理平台化建设:参与视频数据处理平台的设计与建设,制定平台的技术架构和发展规划;持续优化平台功能,确保平台的稳定性、可靠性和可扩展性,满足不断增长的业务需求; 3、视频数据生产管理:统筹视频数据的采集、整理、存储等生产环节,建立高效的数据生产流程;确保视频数据的质量和准确性,对数据进行严格的审核和校验; 4、算法优化与创新:不断探索和研究新的视频数据处理算法和技术,对现有算法进行优化和改进;结合人工智能、机器学习等先进技术,提升视频数据的分析和处理能力,为业务提供更有价值的洞察。 职位要求: 1、计算机及相关专业,本科及以上学历,良好的沟通和团队协作能力; 2、精通Python或Golang等至少一种编程语言; 3、熟练使用GPU或NPU高性能编程技术为模型训练或推理加速,例如:CUDA、CUDNN、CUTLASS、Triton等; 4、熟练使用开源推理加速工具为模型加速,例如:TensorRT-LLM、vLLM、TVM、torch.compile等,并深入理解背后原理; 5、具备以下一个或多个能力者优先: 1)具有数据处理相关经验,熟悉图像或视频数据处理方法,了解CV、VLM和Diffusion Model相关算法; 2) 熟悉大数据分布式处理框架Spark、Flink、Hadoop、Ray者优先; 3)熟练使用DALI、OpenCV、FFmpeg等图像处理工具。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责下一代AI数据引擎在云上的部署、管理和优化; 2、基于字节云&火山引擎等云基础设施,实现大规模、分布式、弹性的AI数据引擎服务。 职位要求: 1、本科及以上学历,计算机、软件相关专业或工作经验;具备良好的沟通和自学能力; 2、有Spark/Flink/Presto/Doris/Starrocks/HBase/MySQL/Redis/MongoDB中的一个或多个系统的运维和部署经验; 3、熟练掌握Kubernetes的部署、使用和运维,具备实际项目经验,熟练使用Docker进行容器化应用的开发和运维; 4、熟悉主流云服务提供商的产品和服务,具备云管控经验; 5、具备扎实的网络架构知识,熟悉负载均衡、网络安全等技术; 6、熟悉Linux运维和操作,具备基本计算机原理知识;熟练掌握至少一种面向对象编程语言,具备良好的代码编写能力。
  • 30k-40k 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1.负责需求的收集、整理、撰写,分析用户需求,了解行业发展,结合公司优势,针对特定领域制定产品短期和长期规划; 2.负责公司数据治理、数据安全、数据地图、元数据中心、数据资产管理、知识图谱等产品的整体规划、目标制定和拆解实施、效果评估; 3.独立完成数据产品原型设计,不断挖掘、创新、优化、设计产品功能; 4.与研发、测试、运营及业务团队配合,推动产品每个版本按计划、保质保量上线。 岗位基本要求: 1.本科以上学历,计算机及相关专业,3年以上产品设计相关工作经验; 2.精通产品常用设计工具,会写SQL; 3.熟悉数据治理,有企业大数据平台建设实际项目实施经验优先; 4.有很强的创新思维及产品意识,能主动发起产品的改进和优化,具有较强执行力; 5.具有较强的数据分析能力和逻辑抽象能力,能够帮助梳理、还原业务场景; 6.有高度的责任心和团队合作精神,能承受一定的工作压力; 7.有跨部门,跨业务线的沟通推进能力。
  • 16k-32k 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1. 基于业务需求,定义员工核心属性和画像标签,通过各类数据实现画像标签的落地和应用闭环。 2. 定义画像标签含义及计算逻辑,探索集团内外结构化与非结构化数据,进行落地可行性评估,数据包括但不限于系统数据、埋点日志、文本、外域数据等。 3. 定义画像标签准确度评估方式,包括但不限于通过应用效果评估、一线反馈闭环等方式,持续验证和提升画像标签的准确度。 4. 持续挖掘业务应用场景,协同下游产品、业务,使员工画像数据标签能够得到全面应用。 任职要求 1. 有3年以上在用户画像、员工画像、用户增长营销/运营方向相关工作经验,有过画像分析项目落地经验者优先。 2. 计算机、数学、统计等相关专业本科及以上学历,具备统计/机器学习/深度学习领域的知识和能力基础,有数据科学、大模型相关工作经验者尤佳。 3. 熟悉SQL操作,可以使用python、sql、hive等数据处理工具进行数据分析处理。 4. 具备业务视野和数据敏感度,能够快速熟悉业务领域、敏锐地捕捉业务核心和数据价值。 5. 有良好的信息提炼与整合能力,能熟练制作美观、专业、可读的汇报材料。 6. 具备优秀的沟通和统筹协调能力,对工作有高度的自驱力、责任心、执行力,有强烈的好奇心,乐于接受挑战。
  • 20k-40k 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1. 数据面性能测试工具(spate)研发; 2. LR-GW 研发; 3. EP-GW 研发; 4. L4LB-GW 研发。 任职要求 1. 熟悉Linux操作系统下C/C++开发,能运行常见工具定位调试问题代码; 2. 熟悉Linux内核网络协议栈,有内核开发经验; 3. 熟悉路由器/交换机工作原理,熟悉NAT、VPN、负载均衡、SDN、NFV、Overlay等网络技术; 4. 熟悉Openstack/Cloudstack等云平台,有OVS/OVS-DPDK等开发经验者优先; 5. 熟悉DPDK、VPP等,有用户态协议栈开发经验者优先; 6. 良好的沟通与团队协作能力。
  • 20k-35k·15薪 经验3-5年 / 硕士
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
  • 25k-40k·14薪 经验5-10年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
  • 20k-40k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
  • 25k-30k 经验5-10年 / 本科
    软件开发,物联网 / 不需要融资 / 50-150人
    职责描述: 1、探索平台内部及外部各类数据,形成完整的客户画像体系; 2、从金融产品的各个环节着手,通过量化分析的方式制定专题分析方案; 3、持续监控各产品线风险状况,对关键指标的异动进行及时的分析与原因查找; 4、和其他部门同事协同工作,进行跨部门业务沟通与合作; 5、能够独挡一面,完成数据分析相关工作。 任职要求: 1、***本科及以上学历,熟练掌握SQL语言,并至少熟悉SAS/R/PYTHON之一; 2、能够快速理解业务逻辑,擅长运用量化分析的方法解决业务问题;有金融贷款业务工作经验者优先; 3、能熟练运用Excel的数据分析模块进行数据分析,熟悉Powerpoint优先; 4、工作踏实,逻辑清晰,学习能力强; 5、具有团队管理经验或者相关意向者优先。
  • 35k-65k·14薪 经验3-5年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1、参与产品功能迭代实验、ABT实验效果回收、异动归因、因果推断等 2、熟悉推荐/搜索业务链路,能够构建链路中的数据体系 3. 参与推荐/搜索的策略分析,探索增长点赋能业务增长 3、了解埋点,业务日常数据需求支持,数据提取、报表配置等 岗位要求: 1、3-5年,本科及以上学历,有数学、统计相关专业或数据分析经验优先; 2、熟悉常见的数据分析方法,SQL能力较强; 3、熟悉tableau配置; 4、较强的学习能力、沟通表达能力、理解能力及洞察能力; 5、熟悉AB tesing基本原理和方
  • 15k-25k·14薪 经验不限 / 本科
    金融 / 未融资 / 500-2000人
    工作职责: 1、基于业务发展和风险要求,能够独立挖掘关键变量,优化贷中的额度策略; 2、基于业务逻辑,能够独立构建评分卡,辅助和优化相关风控策略; 3、独立评估策略和模型效果,出具相关分析报告; 4、能够独立部署相关监控及密切关注风险和业务各项指标,及时发现异常; 5、支持数据提取和分析需求; 6、与多部门沟通合作,提高业务整体发展效率; 7、能在规定时间内完成相关分析及策略优化。 任职要求: 1、**本科及以上学历,统计、计量、数学、计算机等相关专业; 2、具有风控相关工作经验,如风控策略、模型; 3、熟悉相关机器学习算法,包括不限于逻辑回归,决策数,gbdt、xgboost等; 4、能够熟练使用SQL、Python或R、SAS; 5、对数据敏感,有风险意识; 6、有较强的逻辑分析和沟通能力,及团队合作意识。
  • 20k-35k·15薪 经验3-5年 / 硕士
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
  • 20k-25k 经验5-10年 / 本科
    数据服务 / 不需要融资 / 50-150人
    岗位职责: 1、数据收集与预处理:数据收集:负责从各种数据源(如数据库、文件系统、网络等)中收集数据,确保数据的全面性和多样性。数据预处理:对数据进行清洗、整理、转换和归约等操作,以提高数据的质量和可用性。这包括处理缺失值、异常值、重复值等问题,以及将数据转换为适合挖掘的格式。 2、数据挖掘与分析:数据挖掘:运用统计学、机器学习和数据挖掘技术,对预处理后的数据进行深入分析和挖掘,以发现模式和趋势。这包括分类、聚类、关联规则挖掘、回归分析、时间序列分析等多种方法。数据分析:通过数据挖掘技术发现数据中的隐藏模式、关联规则和趋势,提取有用的信息和知识。这些分析结果可以用于业务预测、市场趋势分析、用户行为研究等多个方面。 3、模型构建与优化:模型构建:根据业务需求和数据特点,选择合适的机器学习算法或深度学习模型,构建数据分析模型。这些模型可以用于分类、预测、推荐等多个场景。模型优化:对构建的模型进行评估和优化,提高模型的准确性和性能。这包括调整模型参数、选择更合适的算法、优化特征工程等方面。 4、数据可视化与报告:数据可视化:利用数据可视化工具(如Tableau、Power BI等)将挖掘和分析的结果以直观、易懂的方式呈现出来。这有助于用户更好地理解数据和分析结果,发现数据中的规律和趋势。报告撰写:撰写数据挖掘和分析报告,向决策者和相关人员解释和说明分析结果,并提出相应的建议和决策支持。这些报告可以包括数据摘要、分析结果、模型性能评估等多个部分。 任职要求: 1、教育程度:计算机、数学、统计学相关专业;本科及以上学历。 2、工作经验:具备5年及以上专业工作经验。 3、知识:熟悉常用数据统计、分析和建模方法;熟练掌握各类算法包括分类算法、聚类算法、关联规则挖掘、异常监测等;熟练使用Python、Sql等语言; 熟悉大数据技术栈和工具,如Hadoop、Flink、Kafka等。 4、技能:熟悉数据作业流程,包括指标体系定义、数据清洗ETL、数据分析挖掘、数据可视化与展示;熟悉各种类型的统计方法,比如概率分布、相关性、回归、随机过程等;能够使用机器学习算法建立数学模型;熟悉常用大数据计算引擎flink;熟悉TensorFlow、PyTorch等深度学习框架。 5、核心能力素质:分析判断能力、解决问题能力、执行能力、沟通能力、文字能力、抗压能力、业务知识、工作主动性、责任意识、团队协作、严谨细致、服务意识、敬业精神、正直诚信。