-
职位职责: 1、负责关键客户的开拓和维护,深度挖掘并跟进潜在的数据采集业务需求,可独立编写技术方案并对客户进行服务介绍; 2、负责数据采集项目交付全流程,准确评估/跟进项目的交付质量、时间、成本、风险; 3、合理设计项目流程、实施计划、供应商奖惩规则,搭建团队推动落地,及时识别项目交付中的各类风险、阻碍并提供解决方案,积极行动,超预期实现项目质量、进度、成本的控制目标; 4、提升项目运营效率,找出业务流程中存在的问题,提出合理优化建议;沉淀交付方法论,提升从项目规划、采集到数据交付的业务处理效率; 5、负责组织项目各个节点经营分析及项目复盘工作,分析业务数据,为客户提供业务指导决策依据。 职位要求: 1、本科及以上学历,3年以上项目交付管理相关经验,熟悉数据采标、人工智能行业项目管理者优先; 2、具备众包等人力资源调度的项目交付经验; 3、对数据行业有深刻的理解和认知,具备大模型应用相关工作经验者优先考虑; 4、思路清晰,逻辑性强,具备较强的学习能力和沟通能力; 5、有丰富的跨团队沟通协作经验和项目落地经验,能够和客户、供应商等就项目涉及到的各方面内容进行谈判。
-
主要职责: 支持市场部的Campaign和数字营销策略,提供关于平台内部流量转化的详尽分析。 理解数据埋点和上报机制,有效处理A/B测试数据。 建立和维护基础事实表和维度表,为上游分析提供稳定的数据模型基础。 与研发和产品团队进行日常沟通,确保数据需求的准确性和实时性。 熟练使用SQL和Python进行数据分析和模型开发。 使用ETL工具优化数据处理流程和数据质量。 任职资格: 熟悉数仓建模方法,具备支持市场部Campaign、数字营销及平台内部转化率分析的相关经验。 了解数据埋点、上报及A/B测试数据处理。 能够独立建立和优化基础事实表和维度表。 精通SQL和Python,有使用ETL工具的经验。 良好的沟通技巧和团队合作能力,能够与技术团队和业务团队有效合作。 强大的分析能力,能够从数据中提取有价值的业务洞察。
-
岗位职责: 1. 使用SQL等数据抓取工具从各种数据源中提取数据,并进行数据清洗和整理。 2. 运用统计学和数据分析方法对数据进行分析,发现趋势、模式和关联性。 3. 利用数据可视化工具(如Tableau、Power BI等)创建仪表盘、报告和可视化图表,以向利益相关者传达数据洞察。 4. 协助团队成员进行数据分析项目,提供支持和建议。 5. 监测和评估数据质量,确保数据的准确性和完整性。 6. 跟踪行业趋势和竞争对手的数据,提供市场洞察和建议。 岗位要求: 1. 2-3年相关工作经历。 2. 熟练掌握SQL等数据抓取工具,能够编写和优化复杂的查询语句。 3. 具备数据清洗和整理的技能,能够处理大量数据并确保数据的准确性。 4. 熟悉统计学和数据分析方法,能够运用这些方法解决实际问题。 5. 熟练使用数据可视化工具,能够将数据转化为易于理解和传达的可视化图表和报告。 6. 对商业和旅游行业有浓厚的兴趣,了解相关行业的趋势和挑战。 7. 具备良好的沟通和团队合作能力,能够与不同部门和利益相关者进行有效的合作。 8. 具备解决问题和分析能力,能够快速理解和解决复杂的数据相关问题。
-
职位职责: 1、跨职能团队管理:在隐私事件处理中,负责跨职能、跨团队沟通;协助制定和执行事件响应计划和实现路径; 2、事故根因分析:能在隐私相关事件和问询响应中,对产品功能进行技术分析,并对各技术方案的设计提供建议; 3、止损与修复措施:为技术团队提供跨职能指导,并为止损与修复方案提供最佳实践建议,推动问题的迅速解决; 4、持续改进措施:通过开发定制工具或应用程序,提升漏洞管理过程自动化水平并标准化操作程序,并进行相应培训、分享等; 5、数据保护合规:持续跟进全球隐私法规,维护和改进隐私政策和流程,并确保隐私最佳实践纳入新产品和功能的设计和开发中; 6、文档和报告:维护隐私评估、测试和相关活动的详细记录;为管理层和利益相关者定期生成报告,提供有关隐私风险和修复工作的见解。 职位要求: 1、计算机科学、计算机工程或相关技术领域本科及以上学历,或同等实际工作经验; 2、拥有2年以上项目管理经验,拥有2年以上软件工程开发经验,熟悉各类数据结构和算法,包括使用Python、Golang等进行代码维护和审查; 3、较强的学习能力,能够快速理解系统设计和架构,并通过文档和代码审查快速学习新的技术栈; 4、英语能作为工作语言,沟通能力强,能够有效协调技术和非技术相关方的交流; 5、能够积极应对不确定性与挑战,有较强的自我驱动力和责任感;有较强的抗压能力; 6、了解海内外隐私法规和标准,包括GDPR、CCPA等。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
岗位职责: 1、定义数据科学家能力框架和培养计划,组建专业的数据科学团队,推动数据驱动的企业文化建设,提升全体员工的数据意识和数据应用能力。 2、开展数据挖掘工作:聚焦公司战略所涉及的经营决策、营销、分控等场景,配合业务部门,形成数据挖掘课题,搭建数据分析框架和模型,指导数据开发团队准备数据和特征,运用统计学、机器学习等方法对数据进行多维分析,为业务决策提供数据支持和量化依据; 3、搭建数据科学家开展数据分析所需具备的工具平台和数据体系,指导在营销风控系统中的算法工程体系搭建 4、梳理当前业务部门的常用的数据分析模型和方法,固化在数据分析平台,沉淀集团数据模型资产; 5、跨部门协作与沟通,作为数据科学领域的专家,参与公司重要业务会议,解读数据洞察,为业务决策提供数据支持,与集团内部各业务部门保持密切沟通与协作,提供数据驱动的决策建议和解决方案,促进业务与数据的深度融合。 任职要求: 1、教育背景:统计学、数学、计算机科学、数据科学等相关专业硕士及以上学位。 2、工作经验:拥有5年以上数据科学领域工作经验,其中至少3年在保险行业或金融领域担任数据科学管理职位,熟悉保险业务流程和数据特点。 3、技能要求:精通统计学理论和方法,熟练掌握机器学习、深度学习算法,如线性回归、逻辑回归、决策树、随机森林、神经网络、卷积神经网络、循环神经网络等,并能熟练运用相关算法解决实际业务问题。熟练掌握至少一种编程语言,如 Python 或 R,熟悉数据处理、建模和可视化相关的工具和框架,如 Pandas、Scikit - learn、TensorFlow、PyTorch、Matplotlib、Seaborn 等。 4、项目经验:主导过多个大型数据科学项目,涵盖风险评估、客户分析、产品定价等保险核心业务领域,具备从项目规划、数据采集与处理、模型开发到上线部署和效果评估的全流程项目管理经验。在学术期刊或会议上发表过数据科学相关的研究论文,或拥有相关专利者优先。 5、团队管理能力:具备卓越的团队领导和管理能力,能够有效激励和指导团队成员,推动团队达成目标。具备良好的项目管理能力,能够合理安排资源,确保项目按时、高质量交付。 6、沟通能力:具备出色的沟通能力和团队协作精神,能够与不同部门的人员进行有效的沟通和协作,将复杂的数据科学问题以通俗易懂的方式向非技术人员进行解释和汇报。 7、创新能力:具有敏锐的创新意识和洞察力,能够不断探索数据科学在保险业务中的新应用和新价值,推动集团业务的创新发展。
-
工作职责: 1. 负责公司内部商业化数据的开发和维护,为产品和营销团队提供数据支持和分析服务; 2. 设计和开发商业化数据仓库和数据集市,实现数据的采集、清洗、存储和分析; 3. 负责数据架构的设计和维护,确保数据准确性、完整性和安全性; 4. 参与业务需求分析和数据建模工作,编写SQL语句完成数据提取、转换和加载(ETL); 5. 能够独立完成数据问题的排查和处理,解决数据质量和性能问题; 6. 具有良好的沟通能力和团队协作能力,与不同部门的业务人员和技术人员合作,推进数据项目的进展。 工作要求: 要求: 1. 本科及以上学历,计算机、数学、统计等相关专业背景; 2. 2年以上数据开发经验,熟悉数据仓库和数据集市的设计和开发; 3. 熟悉大数据平台和工具,如Hadoop、Hive、Spark、Kafka、Flink等; 4. 熟悉数据仓库架构,了解数据仓库建模方法和技巧;
-
岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
-
岗位描述: 1、通过对用户行为及市场、行业的洞察分析,识别客户消费偏好及场景,围绕用户获客、活跃、增收、挽留等目标,结合实时营销等工具,针对用户的不同阶段制定整体用户不同生命周期的营销策略,并根据策略制定推广计划,统筹各项活动进展及调整活动方向; 2、负责业务领域核心数据体系的规划设计,并推动数据采集和数据口径规范。搭建数据服务产品(业务报表开发和维护),利用可视化工具输出动态仪表盘,赋能业务; 3、通过业务数据分析及时检测业务健康度,并针对异常点开展专项深度分析,发现问题并提供合理业务建议; 4、客户画像标签定制,并落地到相关数据营销系统,助力用户精准营销; 5、负责市场关键业务指标的年度预算制定与分解,定期滚动提供合理的业务预估。 任职要求: 1、重点本科及以上学历,理工科、统计学背景,5年以上相关工作经验; 2、对金融业感兴趣,对数据业务场景敏感,能够横向协同,跨界整合资源,有效结合业务形成一套完整的数据解决方案; 3、具备金融行业或互联网企业前瞻性的整套数据管理、数据服务等解决方案的规划和落地经验尤佳; 4、掌握SQL,以及Python/SAS/R语言(至少一种)的数据分析处理技能; 5、优秀的思维逻辑性、语言表达能力; 6、有一定的市场敏锐度,商业嗅觉敏锐者优先。
-
岗位职责: 1.负责用户行为数据、业务数据、投放数据统计分析工作; 2.为业务方提供产品迭代、运营策略的数据支持,对产品/策略上线后进行影响及收益评估,协助业务监控产品相关指标,分析波动原因; 3.对用户增长指标进行监控与问题定位、提出改进方向、给出数据结论; 4.具备数据分析和数据建模能力,结合用户行为数据,深入挖掘用户行为特征,不断优化和完善整个数据体系。 任职要求: 1.本科及以上学历,3年以上游戏行业数据分析的工作经验,统计/数学/计算机相关专业学历背景优先,优秀者可适当放宽; 2.具备数据的处理能力,熟练使用数据分析工具; 3.具备高度责任心、良好的人际沟通技巧,有较强的学习意识及进取心,工作踏实,可承受一定工作压力; 4.有良好的职业素质、合作意识和团队精神,具有独立分析和解决问题的能力; 5、有游戏行业经验,做过数仓、常规数据分析工作的亦可,在业务项目组内做过数分的优先。
-
工作职责 1. 基于业务需求,定义员工核心属性和画像标签,通过各类数据实现画像标签的落地和应用闭环。 2. 定义画像标签含义及计算逻辑,探索集团内外结构化与非结构化数据,进行落地可行性评估,数据包括但不限于系统数据、埋点日志、文本、外域数据等。 3. 定义画像标签准确度评估方式,包括但不限于通过应用效果评估、一线反馈闭环等方式,持续验证和提升画像标签的准确度。 4. 持续挖掘业务应用场景,协同下游产品、业务,使员工画像数据标签能够得到全面应用。 任职要求 1. 有3年以上在用户画像、员工画像、用户增长营销/运营方向相关工作经验,有过画像分析项目落地经验者优先。 2. 计算机、数学、统计等相关专业本科及以上学历,具备统计/机器学习/深度学习领域的知识和能力基础,有数据科学、大模型相关工作经验者尤佳。 3. 熟悉SQL操作,可以使用python、sql、hive等数据处理工具进行数据分析处理。 4. 具备业务视野和数据敏感度,能够快速熟悉业务领域、敏锐地捕捉业务核心和数据价值。 5. 有良好的信息提炼与整合能力,能熟练制作美观、专业、可读的汇报材料。 6. 具备优秀的沟通和统筹协调能力,对工作有高度的自驱力、责任心、执行力,有强烈的好奇心,乐于接受挑战。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
工作职责: 1、负责公司内视频云业务数据的开发和维护,为点直播业务与视频云研发团队提供快速、准确、灵活的数据仓库支持; 2、深入理解业务逻辑,完成数据模型设计及优化工作; 3、完成海量数据的获取、清洗、分类、整合等数据处理工作; 4、设计并实现对BI分析及报表展现、数据产品开发; 5、独立完成数据问题的排查与处理,解决数据质量与性能问题; 工作要求: 1、本科及以上学历,计算机、数学、统计等相关专业背景; 2、有数据建模基础,并能根据需求独立完成建模;熟悉数据仓库架构,了解数据仓库建模方法与技巧; 3、对数据有较强的敏感性,有较强数据分析能力,通过数据之间关系反推业务逻辑; 4、有基于hadoop和spark分布式平台的数仓经验,熟悉Hadoop、Hive、Spark、Kafka等技术并有相关开发经验; 5、熟悉Shell,Python,Perl至少一种脚本语言; 6、有公有云、视频云业务相关经验者优先; 7、有独立自主完成完整业务线数仓的整合搭建的经验优先。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海