-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
工作职责: 1,AI模型应用与开发(40%) 参与部门的模型策略类开发项目,专注于AI模型的开发与优化,确保模型在实际业务场景中的高效应用。 2,AI驱动的数据分析(50%) 参与部门的AI服务架构(SOA)设计与优化,协助完成自动化数据处理流程(automatic pipeline),提升数据处理效率和模型性能。 3,团队协作与沟通(10%) 与商务、运营、研发等团队紧密合作,确保AI模型开发与业务需求紧密结合,推动项目顺利实施。 任职资格: 1,硕士及以上学历,2年以上AI模型开发与应用项目经验,应用数学、物理、统计、计算机与算法相关专业。 2,具备丰富的AI模型开发经验,熟悉LLM(大型语言模型)、深度学习、数据挖掘等技术在实际项目中的应用,了解NLP(自然语言处理)、CV(计算机视觉)的基础概念。 3,精通Python编程,能够高效搭建AI模型框架,实现复杂深度学习模型的开发与部署。 4,具备良好的英语交流与阅读能力,能够无障碍阅读和理解英文技术文档。 5,加分项: -有保险风控建模领域经验,熟悉风控大数据挖掘与分析者优先。 -在Kaggle等建模大赛中获奖者优先。
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
25k-45k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1.结合信贷业务场景,对内部海量数据进行清洗与深度挖掘,提炼稳定且有效的数据产品,为金融机构信贷业务搭建全生命周期模型提供数据基础; 2.使用Python开发并优化逻辑回归、XGBoost、深度神经网络等机器学习模型,结合信贷金融业务属性和场景,提升模型算法的表现,完善金融机构的全场景化模型组合; 3. 全程参与数据产品的研发,包括需求分析、市场分析、产品设计、产品性能测试、上线推广等环节,确保产品的高效交付和稳定运行; 4.积极研究和跟进前沿大数据建模理论和技术,将其有效融入产品开发中,以维持并提升产品的技术竞争力; 5.针对不同信贷金融机构的业务特色,设计定制化的风控和营销解决方案。运用大数据和算法技术,为合作伙伴提供精准的业务支持和服务。 岗位要求: 1.计算机、数学、统计、金融、物理、信息工程等数理专业硕士及以上学历; 2.具有3年及以上银行、消金或者互联网金融等相关的风险模型、数据挖掘相关工作经验,对信贷业务流程和系统有深刻理解; 3.精通风险管理和营销模型的构建方法,熟练掌握统计分析和数据挖掘技术。具备强烈的数据敏感性,能够独立发现并解决问题,具有自我激励和驱动的能力; 4.熟练应用Python、R等数据挖掘工具,掌握逻辑回归、XGBoost等机器学习算法,并了解深度学习和前沿算法的发展趋势; 5.具备良好的团队合作精神,优秀的沟通能力和项目管理技能,能够在快节奏的工作环境中有效推动项目进展。
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
职位职责: 团队介绍:商业产品与技术部门(广告业务)成立于2014年,负责字节跳动商业变现端到端大型广告系统建设,覆盖抖音、今日头条、西瓜视频、番茄小说、穿山甲等产品矩阵,致力于让营销更省心、更高效、更美好,推动商业可持续增长,让不分体量、地域的企业及个体,都能通过数字化技术激发创造、驱动生意。 商业平台负责整个广告投放系统的客户业务平台建设,我们为客户提供广告创编、商业认证、市场推广等一站式投广覆盖和商业化能力输出。同时在围绕大模型建设中台化Copilot框架,探索面向广告营销场景的Copilot Agent能力方面有深入实践和充满热情。 1、负责字节跳动商业变现相关平台与产品的前端开发工作,包括面向B端的品牌广告和面向C端的DOU+广告; 2、参与规划与制定面向B端、C端的广告平台的技术架构及设计实现,包括组件化、配置化及高性能方案等; 3、负责推动与优化已有前端项目的基础架构升级、性能优化升级及创新业务玩法的探索。 职位要求: 1、精通HTML/JS/CSS等前端相关技术,H5经验优先; 2、拥有1年以上的前端开发经验,独立负责过负责模块的技术选型、开发和规划工作; 3、对主流前端框架(React/Vue/Angular等)有一定了解,并至少对其中一种有深入了解; 4、对服务端(Node.js/Java/Python/Go等)有一定实际的开发经验; 5、拥有良好的推动力与主动性,能主动发现问题并推进问题改进; 6、有良好的团队精神,乐于为团队成员进行经验分享、帮助团队成长。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
主要职责: 支持市场部的Campaign和数字营销策略,提供关于平台内部流量转化的详尽分析。 理解数据埋点和上报机制,有效处理A/B测试数据。 建立和维护基础事实表和维度表,为上游分析提供稳定的数据模型基础。 与研发和产品团队进行日常沟通,确保数据需求的准确性和实时性。 熟练使用SQL和Python进行数据分析和模型开发。 使用ETL工具优化数据处理流程和数据质量。 任职资格: 熟悉数仓建模方法,具备支持市场部Campaign、数字营销及平台内部转化率分析的相关经验。 了解数据埋点、上报及A/B测试数据处理。 能够独立建立和优化基础事实表和维度表。 精通SQL和Python,有使用ETL工具的经验。 良好的沟通技巧和团队合作能力,能够与技术团队和业务团队有效合作。 强大的分析能力,能够从数据中提取有价值的业务洞察。
-
岗位职责: 1、参与基于Hadoop的大数据平台的研发工作与持续优化工作。 2、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。 3、利用大数据相关技术实现对数据的分析、挖掘、处理、及数据可视化等相关工作。 4、学习和研究新技术以满足系统需求。 岗位要求: 1、拥有数据处理相关专业背景。 2、对互联网产品有见解,关注前沿技术,有较强的学习能力、分析能力和动手能力。 3、熟悉常用分布式计算和存储框架,如Hadoop/HDFS/Spark等。 4、至少熟悉以下一种大数据技术组件,Hive、Impala、Hbase、Flume、Kafka、Zookeeper、Storm、Flink。熟悉资产管理、资金业务和金融工程相关领域业务者优先。 5、个性乐观开朗,沟通能力强,具备良好的团队协作精神,能利用自身技术能力提升团队整体研发效率。 6、多份工作经历需最近2份工作均满2年,或最近1份工作经历满3年。仅有一份工作经历的需满两年。 7.工作地点:上海,成都
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
-
岗位职责: 1. 负责项目前期调研、系统业务规划、业务访谈调查、业务流程分析,产出调研报告; 2. 制定调研计划,能敏锐把握用户需求,提出产品设想和解决方案,负责概要/详细需求分析的工作,进行页面原型的设计制作,编写高质量的需求规格说明书; 3. 负责对客户的需求确认工作、对项目组相关人员的需求讲解和答疑的工作; 4. 负责对设计和开发成果进行满足UAT工作; 5. 负责对用户操作手册制作、培训材料进行编制撰写,并指导项目成员与用户的问题答疑等相关工作; 6. 负责项目开发成果的验收评审,做好项目/产品上线前的培训,对产品研发团队提供业务支持; 7. 负责项目/产品的需求变更控制、跟踪; 8. 承担项目或部门交办的其他工作,遵守并履行公司及部门的相关规定和要求。 任职要求: 1. 专科或以上学历,计算机相关专业,3年以上需求分析经验; 2. 能够使用面向对象工具进行建模和设计, 对软件工程具有较全面和深刻的认识,熟悉UML并能使用相关软件; 3. 具备良好的书面表达能力、沟通协作能力、逻辑思维能力、产品(业务需求)分析能力与设计思路,注重效率和落地,能够独立从事产品规划和设计; 4. 思维敏捷、善于变通、临场反应快,能快速吸收理解需求作出响应; 5. 掌握需求分析方法,熟悉需求管理和项目开发过程; 6. 较强的责任心及团队合作精神,能够承担工作压力; 7. 掌握相关需求分析工作和技巧,熟练使用 Axure、PPT、Word、Visio 等产品策划工具,有较好的文字功底能够撰写需求文档,有清晰的产品设计理念; 8. 具备一定的项目管理、组织协调能力、良好的人际沟通表达能力和服务客户的意识、开拓精神。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。