-
职位职责: 1、负责国际化商业化营销度量的策略方向的业务指标体系建设,对短期营销效果进行归因,对长期趋势进行解读; 2、深入理解国际化商业化营销业务目标,通过数据分析与数据建模(统计学+机器学习)形成分析洞察,使用因果推断模型、营销组合模型衡量营销活动效果,找到潜在优化方向,为业务决策提供数据支持; 3、主导并执行营销数据分析项目,根据业务需求完成较为深入的专项数据分析,通过对数据的洞察、定性和定量分析以及模型建设,迅速定位问题或发现机会,给出具体可行的优化建议; 4、与营销经理、产品、工程技术以及其他部门完成高质量沟通,保证推动数据分析结论的落地与持续优化; 5、探索归纳分析方法论,研究数据科学理论,推进数据产品的迭代优化,提升分析效率。 职位要求: 1、计算机、统计学、数据科学、数学、经济学或者相关专业本科以上学历,硕士、博士研究生; 2、3年以上数据相关工作经验优先,有营销行业、咨询行业数据分析挖掘从业经历者优先; 3、扎实的数据挖掘理论和技术基础,熟练掌握常用的回归分析、因果分析、度量评估等数据科学能力,具有统计分析、数据挖掘、机器学习、算法等相关工作经验; 4、精通Python、R、SQL等编程语言和可视化常用工具,熟练掌握Hive/MySQL等数据处理平台; 5、具备快速学习新技术的能力,能够在较短时间内理解论文,实践动手能力强。 我们还希望你: 1、拥有优秀的英语沟通能力,能够和国际化的团队流畅高效地沟通,尊重不同国家的文化; 2、自驱能力强,做事有热情,心态开放包容,有主动思考和探索的能力和主人翁意识; 3、在跨部门配合时,不设边界,始终创业。
-
职位职责: 1、负责抖音到家外卖业务的整体数据分析工作,设计全局性指标体系,定期输出日、周、月度报告,对核心数据变化趋势跟踪分析; 2、分业务线/分模块的关键指标分析、专项分析,及时敏锐的发现业务变化、洞察规律,挖掘业务风险与机会,支持业务进行路径探索、诊断优化、业务复盘等,提出有建设性的决策建议; 3、及时发现业务问题、团队问题,并提供优化建议,推动业务优化、人员成长以及管理效率提升。 职位要求: 1、本科及以上学历,5年及以上数据分析经验,有外卖行业经验优先; 2、优秀的数据敏感度,有丰富的数据挖掘、信息采集整理和逻辑分析能力; 3、具备成熟的指标框架构建能力和各类分析方法,针对业务问题可以进行体系化的指标拆解、提出解决方案,并产出高质量的分析报告。
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
1、根据业务需求进行需求分析、完成 BTL 教据建模、模型开发等工作,与应用、测试良好的沟通完成需求迭代; 2、模型分析,与存汇款、大教据平台等核心系统保持教据同步完整性及教据准确性; 3、快速完成生产问题排查与解决。 4、熟练掌握 SQL 语法,具备 SqI 调优能力,良好的教据库技术背景,能基于大教据平台进行教据建模及数据开发等工作。 5、良好的 ETL 处理能力,熟悉 Hadoop 、 Hive 、 vertica 、Sparksq;任务调度、 Linux 、 Shell 等相关技术栈,优秀的开发实战、性能优化能力。 6、对教据敏感,能在日常工作中对大教据进行教据分析、教据核验、教据治理优先。 7、熟悉银行存汇款等核心系统的业务及教据库模型优先。有较好的文档写作能力; 8、有较强的机行力;有较好的团队意识、适应能力、具有良好的沟通协调能力;抗压能力较强;
-
工作职责: 1. 负责公司内部商业化数据的开发和维护,为产品和营销团队提供数据支持和分析服务; 2. 设计和开发商业化数据仓库和数据集市,实现数据的采集、清洗、存储和分析; 3. 负责数据架构的设计和维护,确保数据准确性、完整性和安全性; 4. 参与业务需求分析和数据建模工作,编写SQL语句完成数据提取、转换和加载(ETL); 5. 能够独立完成数据问题的排查和处理,解决数据质量和性能问题; 6. 具有良好的沟通能力和团队协作能力,与不同部门的业务人员和技术人员合作,推进数据项目的进展。 工作要求: 要求: 1. 本科及以上学历,计算机、数学、统计等相关专业背景; 2. 2年以上数据开发经验,熟悉数据仓库和数据集市的设计和开发; 3. 熟悉大数据平台和工具,如Hadoop、Hive、Spark、Kafka、Flink等; 4. 熟悉数据仓库架构,了解数据仓库建模方法和技巧;
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
岗位职责 1.负责腾讯地图轨迹数据挖掘系统架构的设计、开发和维护; 2.负责设计和开发高效的轨迹、特征存储方案,支持离线、实时的挖掘应用; 3.负责开发和部署用于道路数据挖掘的算法,机器学习模型,支持轨迹数据分析和挖掘应用; 4.负责系统的性能、稳定性、扩展性、成本的保障和提升。 岗位要求 1.计算机、理工类相关领域的本科及以上学历,工作经验3年以上; 2.有海量数据处理和并行计算开发经验,熟悉Hadoop、Spark、Flink等大数据处理框架,熟悉常用的数据存储,熟悉Kafka、RabbitMQ等消息队列系统,了解实时数据流处理技术; 3.具备分布式系统设计和开发经验,了解微服务架构,了解高并发、高可用系统的设计方法; 4.扎实的计算机科学基础知识,包括数据结构、算法、数据库系统、操作系统等,熟练掌握Java或者C++语言,熟悉常用设计模式; 5.有较强的学习能力及创新能力,有地图道路数据、海量轨迹处理相关背景优先。
-
Python数据开发工程师 玖奕私募基金,正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等 3、熟悉Linux环境下开发,熟悉常用的Bash指令 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库 5、熟悉MongoDB等NoSQL数据库 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度 7、自驱、认真负责、技术沟通和技术协作能力强 额外加分 1、有金融行业数据处理经验 2、有容器化(Docker)开发部署经验 3、有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda
-
岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
职责描述: 1、探索平台内部及外部各类数据,形成完整的客户画像体系; 2、从金融产品的各个环节着手,通过量化分析的方式制定专题分析方案; 3、持续监控各产品线风险状况,对关键指标的异动进行及时的分析与原因查找; 4、和其他部门同事协同工作,进行跨部门业务沟通与合作; 5、能够独挡一面,完成数据分析相关工作。 任职要求: 1、***本科及以上学历,熟练掌握SQL语言,并至少熟悉SAS/R/PYTHON之一; 2、能够快速理解业务逻辑,擅长运用量化分析的方法解决业务问题;有金融贷款业务工作经验者优先; 3、能熟练运用Excel的数据分析模块进行数据分析,熟悉Powerpoint优先; 4、工作踏实,逻辑清晰,学习能力强; 5、具有团队管理经验或者相关意向者优先。
-
岗位职责: 1、参与产品功能迭代实验、ABT实验效果回收、异动归因、因果推断等 2、熟悉推荐/搜索业务链路,能够构建链路中的数据体系 3. 参与推荐/搜索的策略分析,探索增长点赋能业务增长 3、了解埋点,业务日常数据需求支持,数据提取、报表配置等 岗位要求: 1、3-5年,本科及以上学历,有数学、统计相关专业或数据分析经验优先; 2、熟悉常见的数据分析方法,SQL能力较强; 3、熟悉tableau配置; 4、较强的学习能力、沟通表达能力、理解能力及洞察能力; 5、熟悉AB tesing基本原理和方