-
职位职责: 1、参与执行抖音平台生活服务领域的数据分析项目,为业务决策提供数据支持和洞见; 2、探索和分析业务数据,帮助识别用户产品体验的潜在优化点,并参与制定改进策略,与产品、运营、推荐算法、研发团队合作,辅助实施优化策略,并跟踪其对业务增长的影响; 3、与团队共同设计和分析业务相关的A/B测试,协助评估产品优化效果,进行市场活动分析,并监测关键业务指标的变化; 4、帮助构建和优化数据采集,负责制作和维护数据看板,监测关键数据指标,及时识别和排查数据异动情况,保证数据的准确性和可靠性。 职位要求: 1、本科及以上学位,2-3年数据分析经验,优先考虑拥有生活服务行业背景或数学、统计学、计算机科学等相关专业背景的候选人; 2、对数据具有一定敏感性,能在指导下发现数据与业务间的关联,辅助进行业务建模和定量分析; 3、熟悉SQL,具备基础的R、Python或其他编程语言实践经验。了解基本的机器学习技术(如回归、分类、聚类等)并有实际应用经验者优先。能在团队协助下撰写分析报告; 4、具备良好的沟通能力,能在团队协作环境中有效工作,适应跨部门合作需求。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
职位职责: 1、参与数据中台的汇聚和采集ETL详细设计和开发工作; 2、负责数据平台相关数据管理工作,如研发规范、质量规范、保障规范的制定与推动实施落地; 3、负责数据分析需求的模型开发和实现; 4、负责来自业务团队数据方面的研发需求。 职位要求: 1、5年以上大数据开发经验,精通SQL语言,具备存储过程开发能力,能熟练进行SQL查询优化; 2、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想,了解数据仓库、CDP者优先; 3、熟悉Hadoop、Spark、Flink、Sqoop、DataX、Hive、Flume、Kafka等相关技术; 4、熟练Scala、Python、Java中至少一种语言; 5、具有良好服务意识,抗压力和沟通能力强,有过ToB行业服务经验优先。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
20k-30k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
岗位职责 1、负责数据类项目实施方案编写; 2、负责项目实施过程中项目进度的管理,并定期给甲方及公司汇报; 3、负责项目现场的沟通协调; 4、项目组人员的工作安排; 5、评估项目中数据库设计、SQL的合理性,并提出改进意见; 6、能够解决项目中常见的技术问题; 7、负责项目验收。 任职要求: 1、具有5年以上项目管理经验; 2、掌握开发信息系统的综合技术知识(硬件、软件、网络、数据库); 3、掌握主流数据建模工具软件和方法; 4、熟练掌握ORACLE开发技术,熟练掌握PLSQL及存储过程开发,熟悉常用函数,具有ORACLE、Mysq、Postgresql、Mongodb、FastDfs、国产数据库开发经验,有石油石化行业经验者优先; 5、精通传统的数据仓库技术及大数据仓库技术,如hive、Hbase等 6、了解各类非结构化数据库、实时数据库; 7、具有大学本科及以上学历,计算机或相关学科专业。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
20k-35k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1、使用建模工具进行信用模型及反欺诈模型开发,包括数据准备、建模及数据分析、模型的选取与优化、模型验证等工作; 2、对海量业务数据进行分析,深度挖掘内部数据,构建风控指标体系并具备开发特征库及解释相应衍生变量、规则的能力; 3、熟悉风控审批、额度、定价策略的制定方法及相应建模流程; 4、针对不同金融机构和业务给出相应的风控建模方案,向客户进行阐释并参与实施; 5、针对客户痛点进行业务引导并提供技术支持; 6、具备探索新业务场景的能力与热情,对于知识与技术向新场景迁移和应用有独立的见解。 岗位要求: 1、三年以上相关领域工作经验,统计、数学、计算机、金融工程等相关专业硕士及以上学历; 2、至少能熟练运用SAS/R/Python中的一种进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 3、掌握逻辑回归、决策树、机器学习等建模方法,了解算法的原理; 4、拥有银行/互金/消金等金融机构数据分析、策略开发以及建模工作经验者优先; 5、具备独立思考能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强; 6、有较强的责任心及抗压能力。
-
岗位职责: 1、定义数据科学家能力框架和培养计划,组建专业的数据科学团队,推动数据驱动的企业文化建设,提升全体员工的数据意识和数据应用能力。 2、开展数据挖掘工作:聚焦公司战略所涉及的经营决策、营销、分控等场景,配合业务部门,形成数据挖掘课题,搭建数据分析框架和模型,指导数据开发团队准备数据和特征,运用统计学、机器学习等方法对数据进行多维分析,为业务决策提供数据支持和量化依据; 3、搭建数据科学家开展数据分析所需具备的工具平台和数据体系,指导在营销风控系统中的算法工程体系搭建 4、梳理当前业务部门的常用的数据分析模型和方法,固化在数据分析平台,沉淀集团数据模型资产; 5、跨部门协作与沟通,作为数据科学领域的专家,参与公司重要业务会议,解读数据洞察,为业务决策提供数据支持,与集团内部各业务部门保持密切沟通与协作,提供数据驱动的决策建议和解决方案,促进业务与数据的深度融合。 任职要求: 1、教育背景:统计学、数学、计算机科学、数据科学等相关专业硕士及以上学位。 2、工作经验:拥有5年以上数据科学领域工作经验,其中至少3年在保险行业或金融领域担任数据科学管理职位,熟悉保险业务流程和数据特点。 3、技能要求:精通统计学理论和方法,熟练掌握机器学习、深度学习算法,如线性回归、逻辑回归、决策树、随机森林、神经网络、卷积神经网络、循环神经网络等,并能熟练运用相关算法解决实际业务问题。熟练掌握至少一种编程语言,如 Python 或 R,熟悉数据处理、建模和可视化相关的工具和框架,如 Pandas、Scikit - learn、TensorFlow、PyTorch、Matplotlib、Seaborn 等。 4、项目经验:主导过多个大型数据科学项目,涵盖风险评估、客户分析、产品定价等保险核心业务领域,具备从项目规划、数据采集与处理、模型开发到上线部署和效果评估的全流程项目管理经验。在学术期刊或会议上发表过数据科学相关的研究论文,或拥有相关专利者优先。 5、团队管理能力:具备卓越的团队领导和管理能力,能够有效激励和指导团队成员,推动团队达成目标。具备良好的项目管理能力,能够合理安排资源,确保项目按时、高质量交付。 6、沟通能力:具备出色的沟通能力和团队协作精神,能够与不同部门的人员进行有效的沟通和协作,将复杂的数据科学问题以通俗易懂的方式向非技术人员进行解释和汇报。 7、创新能力:具有敏锐的创新意识和洞察力,能够不断探索数据科学在保险业务中的新应用和新价值,推动集团业务的创新发展。
-
if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Java’: case ‘Python’: case ‘Kubernetes’: case ‘Serverless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责建设商家端关键业务模块数据建设工作, 包括退货, 履约, 保险, 包裹查询等业务; 2、负责售后产品业务线数据仓库建设,承接端到端的业务需求以及交付物的质量提升; 3、参与制定数据采集规范和流程,统筹实施,建设数据指标体系数据模型,提升数据文化、实现数据价值; 4、设计开发业务数据服务体系,不断优化数据计算和访问性能,保证服务高质量稳定运行; 5、和产品经理一起推进项目需求落地,将业务和产品需求转变成为技术实现方案,控制项目风险以及完成任务拆解。 岗位要求 1、本科及以上学历,具备基本的英语读写能力; 2、5 年及以上数仓开发相关经验,熟练掌握 Python/Java/Scala; 3、精通基于 SQL 的数据建模,熟练设计和实现复杂的数据结构,考虑多个用户的需求并持续进行优化; 4、了解实时框架 (Flink, Spark) 的使用与调优,对某项数据库技术有深入理解,如 Clickhouse, Doris, MySQL, HBase; 5、对代码质量有追求,具备良好的面向对象编程经验,熟悉常用的设计模式,具有较强的架构设计能力; 6、积极主动、责任心强,具备优秀的逻辑分析和问题解决能力,具备良好的学习能力和团队协作能力。 加分项 1、具有 AWS、GCP 等云平台的使用经验; 2、熟悉大数据 SaaS 平台产品与技术体系,有复杂业务系统从 0 到1 的构建经验; 3、熟悉数据产品端到端研发经验,有 CDP、DMP、CRM 等数据产品研发经验; 4、英语可作为工作语言。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 1.负责制定数据运营策略,为大模型的训练提供精准有效的数据支持; 2.负责拓展数据生产方案,为大模型在生活服务场景的落地提供数据支持; 3.负责供应商采购招标,设计并实施各类数据管理机制,保证数据质量; 4.负责监测大模型在各应用场景的效果,并提出实质性的改进建议。 岗位基本需求 1.具备本科及以上学历,擅长内容创作,有数据运营相关工作经验; 2.具有良好的数据分析能力,并熟悉大模型、数据挖掘等相关领域; 3.擅长管理供应商或外包团队,能够处理跨团队的沟通协作问题; 4.强调细节并注重端到端效果,能够在快节奏的工作环境中工作,并能够应对工作压力。 具备以下者优先 对大模型方向有深刻见解的优先,有AI方向数据运营及团队管理经验的优先。 岗位亮点 紧跟业界最前沿的大模型能力,深度参与在生活服务等真实场景的落地应用。 其他补充信息 基础研发平台是美团的核心技术平台,旨在打造公司级高性能技术架构、数据科学、服务运维、开发质效提升、信息安全、视觉智能以及企业办公数字智能化等系列关键能力,持续强化平台技术,保障基础设施稳定安全、低成本、高效可持续,全面赋能公司各个业务高速发展。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。
-
职位描述 负责从数据角度解决自动驾驶的相关问题,具体包括: 1. 搭建自动驾驶的全自动数据生产流程,高效支持各模块的数据挖掘、自动标注、算法评测、数据/真值可视化等任务 2. 进行数据挖掘/分析的策略研发工作,结合模型能力降低策略的开发成本和提升挖掘准召率 3. 利用多模态大模型的能力进行case自动分拣,提升路测和量产case的问题流转效率 职位要求 1. ***本科以上学历,有处理真实大规模数据经验。 2. 掌握python/C++编程语言,具备扎实的代码能力。 3. 参与过数据平台开发,有数据可视化/算法评测工具开发的相关经验。 4. 参与过自动驾驶线上算法模块开发,对数据驱动的算法开发有深刻认知。 以上职位要求满足其中一条即可
-
岗位职责: 负责大数据平台的技术方案设计、推动大数据平台的架构落地并持续完善、同时负责信贷大数据相关应用的开发及实施 岗位要求: 1)本科及以上学历,5年以上相关工作经验,35周岁以下,XX大学XX学院若写成XX大学视为简历造假; 2)具备DW/BI架构体系的建设经历并熟悉Hadoop生态圈; 3)熟悉了解shell、java、python、sql等计算机技术知识,具备极强的数据挖掘和分析能力。 4)具备金融或科技行业大数据项目开发经验者优先。
-
美团平台为用户的基础产品体验负责,还承担了美团的用户增长、市场和品牌营销、前端技术基础设施建设以及多条业务线的产品设计职责,建立了融合文字、图片、视频和直播等不同形式的內容生态系统,同时整合地图服务部、客户服务和体验部、企业业务部、网约车业务部等部门,致力于用科技提升美团数亿消费者、近千万商家、骑手、司机和团长的服务体验。美团平台拥有高并发、多业务的复杂场景,为技术深度优化提供了最佳实践可能。这里有简单、讲逻辑、有爱的团队,更是一块理想的实战场地,舞台广阔,欢迎你来尽情施展。 岗位职责 1.负责美团平台供给系统的规划及建设,针对不同业务商品的接入流程,存储管理,应用分发等环节进行系统化迭代,为数据的准确性和在各类业务场景的使用效率负责; 2.能通过数据分析、深刻理解商品供给和用户需求,全链路拆解和分析商品数据应用场景,对需求高度提炼和抽象,给出有效解决方案并推动交付落地; 3.对标行业,深入研究商品管理体系,数据管理平台,结合业务特性搭建合理的系统架构,满足业务场景需求的同时,具备高扩展性及易用性; 4.与业务、研发等部门高效沟通,紧密协作,制定合理的落地方案。 岗位基本需求 1.本科及以上学历,3年及以上中后台产品/B端产品经验 2.具备较强的业务思维,善于通过数据发现问题,并推进解决; 3.极度关注客户的体验,能积极主动发现并解决客户的体验问题; 4.有良好的学习和团队协作能力,具备逻辑化、结构化思考能力、责任心强; 5.心态开放,善于沟通与协调,有亲和力,有灵活解决问题的方法。 具备以下者优先 商品产品经验,数据平台经验。 岗位亮点 可以全局了解美团各类业务的供给情况,获得丰富的产品视角和业务经验。
热门职位