-
职位职责: 1、通过定量分析、数据挖掘、数据建模和数据呈现等手段,深入理解开发者需求及痛点; 2、通过探索性的数据分析与数据建模,从数据中洞察、挖掘研发工具类业务存在的关键问题,并提出相应的产品体验提升及业务增长方案; 3、能根据业务需求完成较为深入的专项数据分析,通过对数据的敏锐洞察、定性和定量分析、以及模型建设,迅速定位内部问题或发现机会; 4、与产品、运营、研发以及其他部门跨团队高效合作,完成高质量沟通,推动并确保数据分析结论的落地与持续优化; 5、负责部门的数据资产维护、管理和建设。 职位要求: 1、5年及以上数据分析/数据科学行业经验; 2、本科以上学历,统计学、经济学,数学、计算机科学相关专业优先; 3、扎实的数据分析理论和技术基础,较好的学习能力;能理解开发者业务逻辑,能根据数据提供合理的业务洞察及见解,推动产品优化和迭代; 4、熟练使用SQL和其他数据分析/建模语言(Python, R等),掌握Tableau、PowerBI等数据可视化工具者。
-
职位职责: 1、通过定量分析、数据挖掘、数据建模和数据呈现等手段,深入理解开发者需求及痛点; 2、通过探索性的数据分析与数据建模,从数据中洞察、挖掘研发工具类业务存在的关键问题,并提出相应的产品体验提升及业务增长方案; 3、能根据业务需求完成较为深入的专项数据分析,通过对数据的敏锐洞察、定性和定量分析、以及模型建设,迅速定位内部问题或发现机会; 4、与产品、运营、研发以及其他部门跨团队高效合作,完成高质量沟通,推动并确保数据分析结论的落地与持续优化; 5、负责部门的数据资产维护、管理和建设。 职位要求: 1、5年及以上数据分析/数据科学行业经验; 2、本科以上学历,统计学、经济学,数学、计算机科学相关专业优先; 3、扎实的数据分析理论和技术基础,较好的学习能力;能理解开发者业务逻辑,能根据数据提供合理的业务洞察及见解,推动产品优化和迭代; 4、熟练使用SQL和其他数据分析/建模语言(Python, R等),掌握Tableau、PowerBI等数据可视化工具者。
-
岗位职责: 1.负责QQ音乐平台用户增长的数据挖掘/分析/机器学习/因果推断模型建设工作; 2.负责海量用户的画像建设,并落地到推荐/增长策略; 3.大数据挖掘分析,独立完成专项分析,为策略迭代提供有效建议,探寻增长机会,建设实验机制持续驱动产品增长计划; 4.与用户增长产品&运营深度配合,将业务需求转化为数据问题,支持并引导业务发展,支持用户增长策略的AB实验,并沉淀方法论。 岗位要求: 1. 精通数据挖掘、机器学习、因果推断、分布式计算等相关技术,两年及以上工作经验; 2. 精通python、SQL编程,熟悉java/Scala等语言; 3. 善于在大数据中挖掘价值,优秀的产品/数据sense,逻辑思维; 4. 熟练掌握spark/hadoop/Hbase/es等大数据计算存储框架; 5. 熟悉用户画像建设,熟悉推荐系统相关机器学习; 6. 良好的团队合作能力,较强的沟通表达能力; 7. 有用户增长相关工作经验者优先。
-
岗位职责: 1、对重要业务线设计指标,监控异常,针对业务痛点设计数据解决方案并推动产品、运营或战略决策、落地; 2、深入理解业务问题,通过细致的数据洞察,可抽象出针对性的策略和算法模型; 3、精通AB实验,了解因果推断方法论。通过设计正确合理的A/B实验来加快产品或策略的迭代,具备深入分析实验结果并给出前瞻性策略指引的能力。 岗位要求: 1、**本科,计算机、统计、数学等专业背景优先;2年以上数据分析工作经验。 2、有数据驱动意识,参与过重要数据决策项目(比如搜索推荐相关业务)的优先; 3、具备扎实的编程基础(Python/SQL等)、大数据平台使用经验(Hive/Spark等)和数据分析(Excel, Tableau,PowerBI等)、数据挖掘工具(Scikit-Learn/Keras/TensorFlow)等类型技能的一种或多种; 4、有将数据转化成可理解和执行的决策(A/B实验,产品方案,运营策略等)能力; 5、良好的团队合作意识和积极主动的owner意识。
-
职位描述: 1)参与设计AB实验和科学评估机制,指导电商场景下各业务做出正确的产品和策略决策,快速进行业务迭代; 2)深度参与AB实验系统、归因系统、异常检测系统等方向的底层机制建设,提供专业的数据科学支持; 3)深入理解业务需求,为业务提供实验分析、异动归因等数据分析支持和指导; 4)通过因果分析、机器学习等技术手段,探索新的实验方法和分析技术,不断优化中台产品能力。 任职要求: 1)拥有统计学、应用数学,计量经济学,运筹学、计算机等理工科类或商科类相关专业的本科及以上学历优先(优先); 2)统计学基础扎实,对因果推断、实验科学相关领域具有浓厚兴趣和钻研精神; 3)熟悉Hive, Hadoop 大数据计算框架,熟练SQl,Python,有2年以上数据分析、数据挖掘或者机器学习算法等的实际工程和项目经验者优先; 4)具有良好统计学和概率论、实验设计基础,擅长数据分析,具有较强的可视化能力,有AB测试归因分析等工作经验者优先。
-
岗位职责: 1、研究、设计和实现更合理的科学实验方法,包括但不限于ABTest、Causal Impact、工具变量法、时间片轮转等,在增长、产品、搜索、推荐、游戏等丰富场景中试点和推广。 2、建立并优化科学实验机制,和产研一起推动实验平台的升级。 3、参与重大项目的实验设计和效果评估,支撑科学决策。 岗位基本要求: 1、统计学、数学、心理学、医学、计量经济学等统计课程较多的专业,硕士以上背景。 2、熟悉实验全流程的关键点,并参与过重大项目的复杂实验设计。 3、能流利阅读英文学术文献,并能熟练使用python/R来实现统计公式、因果模型。 4、能够使用简洁的语言,清晰的表达问题和观点。 5、如果在互联网多业务场景下有丰富实践经验更佳。
-
岗位职责: 1、负责开展科技传播数据收集、舆论分析及相关资料整理等工作; 2、开展传播领域相关研究,撰写分析报告和论文; 3、完成领导交办的其他事项。 任职要求: 1、具有理工科、新闻传播学等相关专业背景,硕士及以上学历; 2、政治素质过硬,工作严谨细心,逻辑清晰,具备较强的自学能力; 3、知识面宽,关注科学及网络热点,有信息检索和鉴别能力,有一定的文字功底和新闻敏感性; 4、熟悉各类社交媒体,有新闻传播数据分析或舆情相关工作经验的优先; 5、有良好的表达能力、沟通协调能力、抗压能力与团队合作精神。 关键词:新闻传播、舆情、互联网编辑、数据分析 岗位性质: 1. 与中心签订劳动合同,一般第一期为3年。不解决北京户口。 2. 薪酬待遇按照中国科学院及计算机网络信息中心相关规定执行。 3. 聘期内缴纳社会保险和住房公积金,并享受补充商业医疗保险、带薪年假、年度健康体检等福利待遇。 招聘流程及时间安排: 1. 申请材料: (1)《岗位申请表》(模板见附件) (2)《应聘人员信息一览表》(模板见附件) (3)身份证明材料(电子版或扫描件) (4)相关代表性成果或作品材料 2. 申请方式:将申请材料统一发送至**************,标题注明“应聘岗位名称+姓名+最高学历+毕业学校+专业”,初选合格者将被通知笔试,笔试时间、地点、形式等具体事宜另行通知。未通过初选者,将不通知参加面试,材料恕不退回。 3. 申请截止时间:2024年12月31日
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
岗位职责 1. 搭建数据指标体系和分析体系。 2. 理解业务需求,独立提出并设计分析方案,支持各业务部门的需求落地。 3. 使用SQL或BI工具进行数据提取、清洗和分析,确保数据质量和准确性。 4. 建立并维护常规数据报表和自定义报表,定期提供业务数据监控和分析报告。 5. 深入挖掘数据价值,识别数据趋势,提出改进建议,支持业务决策。 6. 与其他业务团队(如产品、运营、市场)合作,通过数据驱动的方式提升业务效率。 任职要求 1. 本科及以上学历,统计学、计算机科学、信息技术或相关专业优先。 2. 至少5年以上数据分析工作经验,具备丰富的数据处理和分析经验。 3. 熟练掌握SQL,能独立编写复杂查询语句,有较强的数据建模能力。 4. 熟悉Python,能够进行数据清洗、分析和可视化,有助于更高效的分析流程。 5. 熟悉主流BI工具,能够将数据分析结果直观地呈现给非技术团队。 6. 具备较强的逻辑思维能力,能够有效地理解业务需求并转化为数据需求。 7. 良好的沟通和协作能力,能够与跨职能团队有效协作。
-
岗位职责: 1、使用建模工具进行信用模型及反欺诈模型开发,包括数据准备、建模及数据分析、模型的选取与优化、模型验证等工作; 2、对海量业务数据进行分析,深度挖掘内部数据,构建风控指标体系并具备开发特征库及解释相应衍生变量、规则的能力; 3、熟悉风控审批、额度、定价策略的制定方法及相应建模流程; 4、针对不同金融机构和业务给出相应的风控建模方案,向客户进行阐释并参与实施; 5、针对客户痛点进行业务引导并提供技术支持; 6、具备探索新业务场景的能力与热情,对于知识与技术向新场景迁移和应用有独立的见解。 岗位要求: 1、三年以上相关领域工作经验,统计、数学、计算机、金融工程等相关专业硕士及以上学历; 2、至少能熟练运用SAS/R/Python中的一种进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 3、掌握逻辑回归、决策树、机器学习等建模方法,了解算法的原理; 4、拥有银行/互金/消金等金融机构数据分析、策略开发以及建模工作经验者优先; 5、具备独立思考能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强; 6、有较强的责任心及抗压能力。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
工作职责 1. 基于业务需求,定义员工核心属性和画像标签,通过各类数据实现画像标签的落地和应用闭环。 2. 定义画像标签含义及计算逻辑,探索集团内外结构化与非结构化数据,进行落地可行性评估,数据包括但不限于系统数据、埋点日志、文本、外域数据等。 3. 定义画像标签准确度评估方式,包括但不限于通过应用效果评估、一线反馈闭环等方式,持续验证和提升画像标签的准确度。 4. 持续挖掘业务应用场景,协同下游产品、业务,使员工画像数据标签能够得到全面应用。 任职要求 1. 有3年以上在用户画像、员工画像、用户增长营销/运营方向相关工作经验,有过画像分析项目落地经验者优先。 2. 计算机、数学、统计等相关专业本科及以上学历,具备统计/机器学习/深度学习领域的知识和能力基础,有数据科学、大模型相关工作经验者尤佳。 3. 熟悉SQL操作,可以使用python、sql、hive等数据处理工具进行数据分析处理。 4. 具备业务视野和数据敏感度,能够快速熟悉业务领域、敏锐地捕捉业务核心和数据价值。 5. 有良好的信息提炼与整合能力,能熟练制作美观、专业、可读的汇报材料。 6. 具备优秀的沟通和统筹协调能力,对工作有高度的自驱力、责任心、执行力,有强烈的好奇心,乐于接受挑战。
-
工作职责: 团队介绍: 数据分析中心是B站独立的横向数据分析部门,作为公司统一数据出口,重点参与用户增长、up主&内容生态、社区生态、版权内容分析工作。需要能够灵活运用多种分析模型和框架,结合对于流量、内容的洞察,提供有效的商业决策建议;同时能够深入核心项目,搭建全链路的监控体系,为业务提供结论、观点和优化建议 1、参与业务目标设定,帮助业务挖掘增长空间; 2、构建全面的、准确的、能反映业务线特征和发展健康度的关键指标体系, 及时发现与定位业务问题; 3、针对B站的复杂业务场景,联动多方资源进行专题分析,对业务问题进行深入探究,站在公司整体角度提供决策数据支持; 4、建立数据化用户运营体系,实现用户的获取、留存、变现全流程的数据监控和数据驱动; 5、沉淀分析思路与框架, 可以融合多业务线共性分析需求,与数据产品、数仓 协作推动数据产品的落地; 工作要求: 1. 统计、数学、信息技术、生物统计等相关专业,本科及以上学历,3年及以上相关工作经历; 2. 熟练独立编写数据分析报告,及时发现和分析其中隐含的变化和问题; 3. 良好的数据敏感度,能从海量数据提炼核心结果,有丰富的数据分析、清洗和建模的经验; 4. 熟练运用SQL,能高效的与数据技术团队进行沟通; 5.对商业机制和业务模式有较为深刻的理解,沟通和团队合作能力突出,能够独立推动项目落地。
-
职位描述: 1. 负责公司web、H5、APP等系统的测试; 2. 负责项目上线前的功能测试和性能测试; 3. 根据项目计划编写测试计划、方案和测试用例,执行测试用例并跟踪bug,编写测试报告,并能提出对产品有效改进方案; 4. 配合运维进行问题的确认和分析,积极推动开发问题修复; 5. 负责自动化测试的设计和编写,维护更新接口自动化脚本; 基本要求: 1、计算机相关专业本科或以上学历,三年以上软件测试工作经验; 2、熟练掌握常见的软件测试方法和测试流程,熟悉功能测试、接口测试、自动化测试、性能测试等,能够独立负责单个项目的测试工作; 3、具备测试方案、测试计划、测试用例和测试报告等相关文档编写能力; 4、掌握常用的数据库,如:MySQL的基本操作; 5、熟悉常用的系统操作指令,如:Linux的基本操作命令; 6、掌握常见的测试工具,如:postman、jmeter、jenkins等; 7、责任心强,积极主动,善于沟通,具有良好的团队精神和抗压能力;
-
职位职责: 1、负责数仓架构设计与人群、内容、投后结案等功能模块数据开发 2、负责数据治理工作,不局限于数据稳定性、数据质量等 3、参与OLAP引擎选型,解决实时数据查询痛点问题 职位要求: 1、具备数仓建模、数据治理设计与开发经验,掌握至少一门编程语言,如python、java、golang等 2、熟悉掌握Spark/Hive/Hadoop/Flink工作原理及应用,具有海量数据处理经验优先 3、熟悉掌握Clickhouse/Doris/ES/Druid其中一种或多种OLAP存储引擎,具备使用与调优经验优先 4、对数据敏感,具备较强的业务能力,能够挖掘业务痛点并解决加分 5、对互联网广告有较强的兴趣优先,具备良好的沟通协作能力、责任心