-
20k-30k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
职位职责: 1、负责下一代AI数据引擎在云上的部署、管理和优化; 2、基于字节云&火山引擎等云基础设施,实现大规模、分布式、弹性的AI数据引擎服务。 职位要求: 1、本科及以上学历,计算机、软件相关专业或工作经验;具备良好的沟通和自学能力; 2、有Spark/Flink/Presto/Doris/Starrocks/HBase/MySQL/Redis/MongoDB中的一个或多个系统的运维和部署经验; 3、熟练掌握Kubernetes的部署、使用和运维,具备实际项目经验,熟练使用Docker进行容器化应用的开发和运维; 4、熟悉主流云服务提供商的产品和服务,具备云管控经验; 5、具备扎实的网络架构知识,熟悉负载均衡、网络安全等技术; 6、熟悉Linux运维和操作,具备基本计算机原理知识;熟练掌握至少一种面向对象编程语言,具备良好的代码编写能力。
-
工作职责 1. 基于业务需求,定义员工核心属性和画像标签,通过各类数据实现画像标签的落地和应用闭环。 2. 定义画像标签含义及计算逻辑,探索集团内外结构化与非结构化数据,进行落地可行性评估,数据包括但不限于系统数据、埋点日志、文本、外域数据等。 3. 定义画像标签准确度评估方式,包括但不限于通过应用效果评估、一线反馈闭环等方式,持续验证和提升画像标签的准确度。 4. 持续挖掘业务应用场景,协同下游产品、业务,使员工画像数据标签能够得到全面应用。 任职要求 1. 有3年以上在用户画像、员工画像、用户增长营销/运营方向相关工作经验,有过画像分析项目落地经验者优先。 2. 计算机、数学、统计等相关专业本科及以上学历,具备统计/机器学习/深度学习领域的知识和能力基础,有数据科学、大模型相关工作经验者尤佳。 3. 熟悉SQL操作,可以使用python、sql、hive等数据处理工具进行数据分析处理。 4. 具备业务视野和数据敏感度,能够快速熟悉业务领域、敏锐地捕捉业务核心和数据价值。 5. 有良好的信息提炼与整合能力,能熟练制作美观、专业、可读的汇报材料。 6. 具备优秀的沟通和统筹协调能力,对工作有高度的自驱力、责任心、执行力,有强烈的好奇心,乐于接受挑战。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
商业增值部是服务于美团核心本地商业客户的增值服务平台,覆盖餐饮、即时零售、医药、休闲娱乐、丽人医美、生活服务、酒旅度假等业务领域。我们致力于构建健康的本地商业生态,通过为平台客户和消费者提供符合其需求的多元、便捷、高效的商业产品和服务,帮助生态伙伴提高效率、优化经营、实现持续健康发展,推动本地商业数字化营销的发展,促进商业生态繁荣。作为本地商业的头部平台,我们为产品、运营、商务、技术、商业分析等领域人才提供广阔的发展空间。诚邀你加入美团商业增值团队,共筑本地商业的健康繁荣生态! 岗位职责 1.负责商业增值部广告数据应用方向,基于商家&品牌看数用数诉求规划数据产品,并制定有效指标进行衡量; 2.贴近本地商业各类广告业务,沉淀常用分析思路与框架,加强广告效果在商家侧的价值传递,通过效果复盘、诊断解读进行投放牵引; 3. 从不同商家层级的营销目标出发,设计并落地用户资产/数据洞察/人群定向等策略能力,帮助商家提升营销效率和效果; 4.研究行业内外数据方法论,结合行业特性提供数据化运营解决方案,联合行业/销售侧/投放端/商家端搭建完善全链路产品 岗位基本需求 1.本科及以上学历,3-5年数据产品相关经验; 2.理解本地生活业务和商家生态,具备良好的业务视野和洞察力; 3.有较强的责任心,优秀的沟通能力和解决问题的能力,具备良好的团队协作、沟通和项目推进能力 具备以下者优先 有广告或商业化领域工作经验、DMP人群洞察、商家端数据工具等相关经验者优先 岗位亮点 1.可深入学习广告业务运作模式,工作内容重要且具有挑战性 2.参与和推动数据驱动业务发展的全过程,充分发挥数据专业技能 3.团队氛围好
-
岗位职责: 1、数据收集与预处理:数据收集:负责从各种数据源(如数据库、文件系统、网络等)中收集数据,确保数据的全面性和多样性。数据预处理:对数据进行清洗、整理、转换和归约等操作,以提高数据的质量和可用性。这包括处理缺失值、异常值、重复值等问题,以及将数据转换为适合挖掘的格式。 2、数据挖掘与分析:数据挖掘:运用统计学、机器学习和数据挖掘技术,对预处理后的数据进行深入分析和挖掘,以发现模式和趋势。这包括分类、聚类、关联规则挖掘、回归分析、时间序列分析等多种方法。数据分析:通过数据挖掘技术发现数据中的隐藏模式、关联规则和趋势,提取有用的信息和知识。这些分析结果可以用于业务预测、市场趋势分析、用户行为研究等多个方面。 3、模型构建与优化:模型构建:根据业务需求和数据特点,选择合适的机器学习算法或深度学习模型,构建数据分析模型。这些模型可以用于分类、预测、推荐等多个场景。模型优化:对构建的模型进行评估和优化,提高模型的准确性和性能。这包括调整模型参数、选择更合适的算法、优化特征工程等方面。 4、数据可视化与报告:数据可视化:利用数据可视化工具(如Tableau、Power BI等)将挖掘和分析的结果以直观、易懂的方式呈现出来。这有助于用户更好地理解数据和分析结果,发现数据中的规律和趋势。报告撰写:撰写数据挖掘和分析报告,向决策者和相关人员解释和说明分析结果,并提出相应的建议和决策支持。这些报告可以包括数据摘要、分析结果、模型性能评估等多个部分。 任职要求: 1、教育程度:计算机、数学、统计学相关专业;本科及以上学历。 2、工作经验:具备5年及以上专业工作经验。 3、知识:熟悉常用数据统计、分析和建模方法;熟练掌握各类算法包括分类算法、聚类算法、关联规则挖掘、异常监测等;熟练使用Python、Sql等语言; 熟悉大数据技术栈和工具,如Hadoop、Flink、Kafka等。 4、技能:熟悉数据作业流程,包括指标体系定义、数据清洗ETL、数据分析挖掘、数据可视化与展示;熟悉各种类型的统计方法,比如概率分布、相关性、回归、随机过程等;能够使用机器学习算法建立数学模型;熟悉常用大数据计算引擎flink;熟悉TensorFlow、PyTorch等深度学习框架。 5、核心能力素质:分析判断能力、解决问题能力、执行能力、沟通能力、文字能力、抗压能力、业务知识、工作主动性、责任意识、团队协作、严谨细致、服务意识、敬业精神、正直诚信。
-
职位职责: 1、参与数据中台的汇聚和采集ETL详细设计和开发工作; 2、负责数据平台相关数据管理工作,如研发规范、质量规范、保障规范的制定与推动实施落地; 3、负责数据分析需求的模型开发和实现; 4、负责来自业务团队数据方面的研发需求。 职位要求: 1、5年以上大数据开发经验,精通SQL语言,具备存储过程开发能力,能熟练进行SQL查询优化; 2、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想,了解数据仓库、CDP者优先; 3、熟悉Hadoop、Spark、Flink、Sqoop、DataX、Hive、Flume、Kafka等相关技术; 4、熟练Scala、Python、Java中至少一种语言; 5、具有良好服务意识,抗压力和沟通能力强,有过ToB行业服务经验优先。
-
职位描述 负责从数据角度解决自动驾驶的相关问题,具体包括: 1. 搭建自动驾驶的全自动数据生产流程,高效支持各模块的数据挖掘、自动标注、算法评测、数据/真值可视化等任务 2. 进行数据挖掘/分析的策略研发工作,结合模型能力降低策略的开发成本和提升挖掘准召率 3. 利用多模态大模型的能力进行case自动分拣,提升路测和量产case的问题流转效率 职位要求 1. ***本科以上学历,有处理真实大规模数据经验。 2. 掌握python/C++编程语言,具备扎实的代码能力。 3. 参与过数据平台开发,有数据可视化/算法评测工具开发的相关经验。 4. 参与过自动驾驶线上算法模块开发,对数据驱动的算法开发有深刻认知。 以上职位要求满足其中一条即可
-
岗位职责: 1、深入分析玩家数据,了解玩家行为和偏好,为产品迭代和新功能开发提供数据支持 2、开发和维护数据仪表板,提供实时游戏性能指标和KPI跟踪 3、使用统计学方法和机器学习模型来预测游戏趋势,识别用户增长和留存机会 任职要求: 1、本科以上学历,具备扎实的数据分析和建模相关理论知识,统计学、数学、计算机相关专业优先 2、五年以上数据分析相关工作经验,有丰富的数据驱动业务的实战经验 3、精通Excel,熟悉SQL和至少一种数据分析工具(如Python、R) 4、熟悉Tableau/PowerBI等可视化工具 5、对游戏行业的商业模式、市场趋势和玩家心理有深刻理解 6、出色的分析思维和问题解决能力,能够处理复杂的数据集并提出洞察 7、强大的沟通技能,能够将复杂的分析结果转化为易于理解的报告和展示 8、有数据建模或机器学习项目经验者优先
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
岗位职责: 1、基于业务理解和发展需求,不断完善各项经营和运营指标体系; 2、负责对数据进行处理、分析、建模和预测,理解数据背后的业务本质,深度挖掘分析不同业务场景下的数据洞察,为业务决策提供数据支撑; 3、负责业务各项经营和运营指标的数据监控和量化分析,挖掘经营和运营上的变化趋势、指标的驱动因素变化等; 4、基于对业务的深刻理解,形成数据表现跟踪的PDCA闭环,分析、评估、执行和展示统计分析的结果。 岗位基本要求: 1、数学、统计学、经济学、计算机等专业者优先,本科及以上学历,3年以上数据分析相关工作经验;有生鲜零售、电商行业相关工作经验者优先; 2、具备数据敏感性和探知欲、分析、解决问题的能力,逻辑清晰,沟通表达和协调能力强; 3、能够承受工作中的挑战;踏实勤奋,有较强的工作投入度和自我驱动力,富有团队合作精神; 4、精通办公软件,熟练运用SQL。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;
-
主要职责: 1. 负责媒体业务的大数据平台的建设工作,包括埋点、收集、加工、应用全流程的建设和迭代工作; 2. 负责数仓建设,制定数据规范,完善数据治理,提升数据产出效率和质量; 3. 对接业务方,为业务服务提供高效率、高可用的数据服务/数据产品; 4. 培养团队成员,组织技术分享,促进团队成员进步。 岗位要求 1. 计算机相关专业本科及以上学历,5年以上大数据方向工作经验; 2. 熟悉数据仓库建模,有实际的实时/离线数仓建模经验,具备一定的Java研发能力; 3. 深入了解大数据技术栈,熟悉spark、flink、hive等技术; 4. 熟悉springboot及相关技术; 5. 良好的沟通能力,团队意识以及跨团队协作能力; 6. 有团队管理经验优先。
-
职责描述:1.建设基于电销场景的业务全链路实时监控看板、可视化数据驾驶舱以及自动预警机制(1)BI数据信息清洗,及时准确提供各类销售报表,并对于输出信息不断优化(2)管理基础信息及共享平台的日常运维,发现异常及时反馈并沟通解决;进行月、季、年的分析总结,并反馈给内部各协助部门(3)跟进业务现状定期制定相应应对计划(4)销售大数据分析,从数据背后发掘业务待优化和提升点2、数据运维监控(1)根据具体业务需要,针对业务运营数据进行分析和深度挖掘,提供有价值的专项分析报告(2)针对业务的属性和模式,有效监控关键指标,及时发现数据问题3、数据运维优化,对店铺运营提出创新的分析观点(1)根据业务部门数据分析、统计工作,搭建电商数据分析指标体系及报表体系,及时优化(2)理解业务方向和战略,建立分析模型,为业务运营提供决策支持4、完成上级安排的需求工作任职要求:1. *****本科及以上学历,数学、统计、计算机、金融等相关专业;211或985优先2. 有2年以上数据分析或BI工作经验,信用卡行业经验优先;3. 至少精通SQL/power bi/Python/SAS其中之一,并能运用上述工具独立完成数据分析工作;4. 精通常用的数据分析方法,能快速的构建问题框架和分析框架;5. 良好的沟通能力和团队协助能力;