-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
25k-45k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1.结合信贷业务场景,对内部海量数据进行清洗与深度挖掘,提炼稳定且有效的数据产品,为金融机构信贷业务搭建全生命周期模型提供数据基础; 2.使用Python开发并优化逻辑回归、XGBoost、深度神经网络等机器学习模型,结合信贷金融业务属性和场景,提升模型算法的表现,完善金融机构的全场景化模型组合; 3. 全程参与数据产品的研发,包括需求分析、市场分析、产品设计、产品性能测试、上线推广等环节,确保产品的高效交付和稳定运行; 4.积极研究和跟进前沿大数据建模理论和技术,将其有效融入产品开发中,以维持并提升产品的技术竞争力; 5.针对不同信贷金融机构的业务特色,设计定制化的风控和营销解决方案。运用大数据和算法技术,为合作伙伴提供精准的业务支持和服务。 岗位要求: 1.计算机、数学、统计、金融、物理、信息工程等数理专业硕士及以上学历; 2.具有3年及以上银行、消金或者互联网金融等相关的风险模型、数据挖掘相关工作经验,对信贷业务流程和系统有深刻理解; 3.精通风险管理和营销模型的构建方法,熟练掌握统计分析和数据挖掘技术。具备强烈的数据敏感性,能够独立发现并解决问题,具有自我激励和驱动的能力; 4.熟练应用Python、R等数据挖掘工具,掌握逻辑回归、XGBoost等机器学习算法,并了解深度学习和前沿算法的发展趋势; 5.具备良好的团队合作精神,优秀的沟通能力和项目管理技能,能够在快节奏的工作环境中有效推动项目进展。
-
工作职责: 1,AI模型应用与开发(40%) 参与部门的模型策略类开发项目,专注于AI模型的开发与优化,确保模型在实际业务场景中的高效应用。 2,AI驱动的数据分析(50%) 参与部门的AI服务架构(SOA)设计与优化,协助完成自动化数据处理流程(automatic pipeline),提升数据处理效率和模型性能。 3,团队协作与沟通(10%) 与商务、运营、研发等团队紧密合作,确保AI模型开发与业务需求紧密结合,推动项目顺利实施。 任职资格: 1,硕士及以上学历,2年以上AI模型开发与应用项目经验,应用数学、物理、统计、计算机与算法相关专业。 2,具备丰富的AI模型开发经验,熟悉LLM(大型语言模型)、深度学习、数据挖掘等技术在实际项目中的应用,了解NLP(自然语言处理)、CV(计算机视觉)的基础概念。 3,精通Python编程,能够高效搭建AI模型框架,实现复杂深度学习模型的开发与部署。 4,具备良好的英语交流与阅读能力,能够无障碍阅读和理解英文技术文档。 5,加分项: -有保险风控建模领域经验,熟悉风控大数据挖掘与分析者优先。 -在Kaggle等建模大赛中获奖者优先。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
工作职责: 1、负责京东零售业务数仓模型设计及开发工作 2、负责离线、实时ETL流程设计、开发及性能调优工作 3、负责数据指标的服务化以及业务指标监控体系建设工作 任职资格: 1、计算机及相关专业本科或以上学历; 2、熟悉数据仓库建模理论及分层架构,具备实际数仓建设经验优先; 3、熟练使用Hadoop、Spark、Hive、Flink等大数据套件,具备海量数据处理经验优先; 4、熟悉linux平台,具备较强的编程能力和编程经验,熟悉Java\C\C++\Python; 5、具备较强的学习能力和团队合作观念,善于思考,具备独立解决问题的能力; 工作地点:北京京东总部
-
岗位职责: 1、对用户营销工具有深刻理解认知,通过搭建业务分析体系框架,负责营销工具体系化监控建设、量化效果评估; 2、洞察分析营销工具各项影响产品提升与增长的因素、各项业务细节,结合业务方向,给出可落地的整体的产品优化方案;与产品、运营、研发等配合,推进优化方案落地执行,带来业务的实际提升增长; 3、负责业务上各类A/B实验设计与分析,产品优化效果评估,时长活动分析评估,核心指标异动分析,客户端版本效果评估等工作; 4、结合行业数据、业界观点和市场趋势,为长期业务发展提供战略层面的意见和建议; 任职资格: 1、统计学、数学、经济学、金融学、计算机等理工科相关专业,本科及以上学历,5年以上数据分析相关经验; 2、有电商平台、内容平台数据分析经验者优先; 3、精通HIVE-SQL,熟悉R、Python等统计分析语言者优先; 4、沟通能力强,具备同理心,能够有效推动项目进度; 5、逻辑能力强,能够从数据需求中思考出最佳的分析思路,并产出完整的数据解决方案; 6、自我驱动力强,有主动学习和探索的强烈意愿。 【加分项】 1、 熟悉电商与内容业务逻辑,有相关实操经验; 2、 对于商家在营销策略的需求和痛点有深度的了解,并对电商平台营销运营逻辑有准确认知。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
商业分析师(P5-P7) 岗位职责 1、基于业务形态和数据分析体系,包含但不限于针对商户侧、供给侧、用户侧进行分析,发现机会,并提供实质性可运营建议或创新性迭代策略,输出分析报告; 2、参与重点产品或运营项目,完成目标测算、效果评估等,并形成系统、客观的评估报告; 3、专项课题研究分析,根据业务需要,以全面横向视角进行各方向数据分析,输出研究报告,帮助业务升级迭代; 任职资格 1、本科及以上学历,统计学、数学、计算机等相关专业优先,2年及以上互联网行业数据或商业分析经验,985/211高校、房地产行业、大型互联网公司背景优先考虑; 2、熟练使用一种或几种分析统计及数据挖掘工具,如python、R、SQL等,擅长tableau、Excel等工具,了解基本数仓和建模理论; 3、良好的结构化思维,较强的数据敏感性,良好的沟通能力、团队合作精神、执行力、抗压能力; 4、具备良好的文档输出能力和习惯,能独立撰写分析报告,可以通过PPT、Word等形式展现分析结果。