-
职位职责: 1、独立负责或作为团队参与数据平台战略专题研究,包括但不限于产品或技术未来趋势、行业态势、ToB新商业模式孵化、ToB市场进入策略等; 2、基于调研结果,制定具体行动计划和资源,和数据平台内部团队及外部生态伙伴共同推进规划落地; 3、战略规划落地后,负责或参加重点产品或解决方案的项目管理、运营优化、或组织变革,推动项目成功上线及运营。 职位要求: 1、3年以上战略/管理/数字化咨询经验,精通结构化思考和调研分析能力,能独立负责战略专项调研优先,能基于调研内容总结提炼有战略高度的意见与结论以支持决策和落地; 2、2年以上独立项目管理经验,包括但不限于流程管理、团队管理、交付物质量管理等; 3、具备优秀的团队协作能力,积极乐观,抗压能力强,推动落地能力强,认真负责; 4、有数字化转型项目端到端规划落地经验,熟悉大数据/云计算相关领域者优先; 5、加分项:英文熟练,能熟练使用英文进行书面和口头交流优先。
-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,参与稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,支持提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.熟悉spark/hive组件原理和应用,精通spark内核相关知识和技术,有较大规模RSS生产实施经验。 3.了解大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有AWS/GCP/阿里云等云平台使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
-
一、岗位职责: 1、参与云数据平台规划,分析业务问题,数据模型设计; 2、负责核心数据处理程序开发、部署调优、验收,及交付材料编写; 二、任职要求: 1、熟悉Linux/Unix系统和丰富的Java开发经验;熟练使用Spring boot,了解Spring底层结构,具备从事分布式相关系统的开发 2、精通大数据仓储技术栈有(Spark、Hive、HBase、redis、kafka、Hadoop等)相关开发经验 3、精通SQL,熟悉常用主流数据库,包括MySQL、PostgreSQL、Redis、MongoDB、Oracle,并精通其中任意一种,具有SQL性能优化经验 4、掌握主流ETL开发工具(Sqoop、Kettle) 5、熟悉至少一种实时计算引擎 Storm, Spark Streaming, Flink
-
岗位职责 1、负责基于数据中台的工具/应用需求调研、业务规划、产品设计、模型设计等工作; 2、负责收集内外部用户需求,针对业务的数据需求进行系统化、体系化的搜集、整理、分析,并通过用户调研、深度挖掘用户需求,确定需求边界,完成需求捕获、需求分析、需求确认、业务建模,整理输出需求规格说明书; 3、负责组织完成需求规格说明书评审; 4、负责跟踪需求建设进度与质量,及时发现并协调解决问题; 5、负责需求管理工作,包含需求变更控制、需求版本控制等。 任职要求 1、本科以上学历,计算机、统计、数学相关专业毕业,5年以上相关工作经验; 2、对主流数据产品、数据仓库、BI产品有深入了解,负责设计过数据分析、数据挖掘、数据可视化相关产品,具有3-5年BI工具及大数据产品设计经验和数据业务分析能力; 3、熟练掌握SQL语句,在数据结构方面有较扎实的基本功; 4、具备产品经理基础工作经验,能把控从需求挖掘、需求分析、产品原型、业务建模,到产品上线后的跟进和升级改造等整个产品生命周期的质量和风险; 5、具备系统原型设计能力; 6、具备较强的沟通协调能力; 7、具备较强的文档编写能力,包含制作高质量的汇报PPT; 8、具有数据治理相关经验者优先。
-
岗位职责: 1. 负责铃声、分享、视频业务数据指标体系建设和维护、核心指标的梳理和监控,数据看板的开发和维护工作; 2. 快速响应数据需求,通过现有的数据产品和提数平台获取数据并输出分析报告; 3. 通过数据专题分析,对业务问题进行深入研究,有效指导运营决策、产品方向。 岗位要求: 1. 三年或以上互联网数据运营或数据分析从业经历,统计、数学、计算机专业等本科以上学历; 2. 具有扎实的统计学、数据分析、数据挖掘基础。熟练掌握HIVE、SQL等相关数据提取工具技能,可熟练通过SQL独立完成相应数据分析需求,熟练掌握至少一种数据分析工具(Scala、Python等),有一定的编程功底; 3. 有丰富的跨团队、部门的项目资源整合能力,能够独立开展项目。
-
职位职责: 抖音-数据分析部门负责抖音核心业务方向的数据分析工作。在这里,既可以通过数据指导创新业务从0到1,起于垒土;也可以通过分析发现突破的方向,赋能成熟产品持续增长。我们的职责,就是从每天产生的PB级数据中,找到最合适的指标和维度,并从最真实的业务现象中,找到可以优化的洞见,并将我们的发现落地成增长。 1、负责面向抖音业务管理决策者的数据能力建设; 2、结合对需求场景和业务的深度理解,联动业务团队和分析师团队,设计并迭代核心指标体系,刻画业务运转状态; 3、充分利用数据分析模型,与数据平台和业务分析师紧密协作,策划并落地清晰简洁、高效易用的数据产品能力,支撑业务决策; 4、深入组织内数据应用与数据管理场景,主动发现问题,通过标准、机制、流程的设计和运营,提升分析决策的效率和质量。 职位要求: 1、本科以上学历,3年以上的数据分析经验,统计学、数学、商业分析、计算机等相关专业优先; 2、具备突出的业务理解能力和结构化思维,对数字极其敏感,善于发掘业务和数据之间的联系和规律; 3、较强的客户需求理解意识和能力,能够充分站在用户视角,发现并解决问题; 4、有较强的学习能力、好奇心和韧性,性格严谨、细致认真,对于交付质量有高标准; 5、具有良好的沟通协调、资源调动、统筹规划、项目推动管理能力,有一定抗压能力; 6、熟练掌握SQL语言和常见数仓结构,具备独立解决复杂问题的数据分析能力。
-
反欺诈策略 岗位职责: 1、负责反欺诈风险策略与流程的设计制定并形成反欺诈产品,如反欺诈标签、设备反欺诈等,根据防控效果持续优化反欺诈产品; 2、根据金融机构的风控业务需求,梳理出数据产品业务逻辑,完成数据产品的设计和落地;推动产品的持续迭代创新,提升整个产品效能; 3、推动自有数据、三方数据的特征挖掘,并对数据挖掘结果设计风险数据产品; 4、参与反欺诈技术应用设计,包括反欺诈数据埋点采集、复杂网络以及核验技术应用,优化反欺诈技术应用策略。 岗位要求: 1.二年以上互联网、大数据、金融相关行业信贷风控工作经验,统计、数学、计算机、金融工程等相关专业本科及以上学历; 2.熟悉反欺诈风险业务;有独到的产品见解;有银行/互金/消金等金融机构反欺诈产品经理、或者反欺诈策略、或者风险分析从业经验,有设备反欺诈经验者优先; 3.熟练使用SQL/Hive/Spark等数据统计工具,熟练掌握Python/R等至少一种常用语言; 4.具备独立思考能力,信息梳理及概括总结能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强,有较强的责任心及抗压能力。
-
30k-50k·15薪 经验3-5年 / 本科社交媒体 / 上市公司 / 2000人以上职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题,对系统架构设计有丰富的经验,能够给出合理的设计方案; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 三年以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 一年及以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
商业分析师(P5-P7) 岗位职责 1、基于业务形态和数据分析体系,包含但不限于针对商户侧、供给侧、用户侧进行分析,发现机会,并提供实质性可运营建议或创新性迭代策略,输出分析报告; 2、参与重点产品或运营项目,完成目标测算、效果评估等,并形成系统、客观的评估报告; 3、专项课题研究分析,根据业务需要,以全面横向视角进行各方向数据分析,输出研究报告,帮助业务升级迭代; 任职资格 1、本科及以上学历,统计学、数学、计算机等相关专业优先,2年及以上互联网行业数据或商业分析经验,985/211高校、房地产行业、大型互联网公司背景优先考虑; 2、熟练使用一种或几种分析统计及数据挖掘工具,如python、R、SQL等,擅长tableau、Excel等工具,了解基本数仓和建模理论; 3、良好的结构化思维,较强的数据敏感性,良好的沟通能力、团队合作精神、执行力、抗压能力; 4、具备良好的文档输出能力和习惯,能独立撰写分析报告,可以通过PPT、Word等形式展现分析结果。
-
BA销售运营分析师 职位介绍: 销售运营分析师,需要专注于根据销售市场数据对市场变化、门店销售数据做出正确判断,通过优化资源配置,促进销售提升。并基于对交付数据统计,销售运营分析师需要对各种销售数据进行整合和运营设计实施,并以业务结果进行短、中、长期验证,且对方案持续改善。 职责描述: 1、数据分析及洞察,提升管理可视化: 以订单预估、Pipeline转化、订单质量三大业务管理模块为核心,搭建数据分析工具。并依据数据给予相应的洞察及分析;及时发现异常并预警; 通过工具的设计及追踪,推动各层级管理者数据化管理的思路; 根据业务需要,可以设立并带领区域项目(以数据撬动业务改变); 2、推动组织效率提升: 通过与跨部门的合作及业务重点,推动区域资源最大; 与BD/CRM协同管理区域预算,及市场活动计划(预算提报、活动频率、活动对象等),最大化开口扩大,提升销售线索数量与质量; 与HRBP/Training协同管理门店HC及展厅运营标准,基于市场Traffic的变化,通过门店运营资源,提升和优化门店运营水平; 与超充/家充,置换/金融,交付协同提升区域订单质量; 与MKT/PR/GR/垂媒合作,推动线上传播及转化; 与交付团队协同优化流程,搭建以简化客户时间成本、提升体验的交付流程; 3、其他: 组织并参加跨部门会议,深入到部门的核心问题讨论中; 与中央BA紧密合作,帮助全国政策和系统更新在区域的落地与推动; 销售系统更新推动落地与问题反馈; 任职要求: 1、3+年数据分析工作经验,本科及以上学历; 2、对数据敏感,优秀的数据分析能力和逻辑分析能力,能独立解决跨部门和跨组织的问题; 3、有较强的抗压力,能在快节奏、充满活力、结果导向的环境中工作。
-
【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先