-
岗位职责: 1. 负责铃声、分享、视频业务数据指标体系建设和维护、核心指标的梳理和监控,数据看板的开发和维护工作; 2. 快速响应数据需求,通过现有的数据产品和提数平台获取数据并输出分析报告; 3. 通过数据专题分析,对业务问题进行深入研究,有效指导运营决策、产品方向。 岗位要求: 1. 三年或以上互联网数据运营或数据分析从业经历,统计、数学、计算机专业等本科以上学历; 2. 具有扎实的统计学、数据分析、数据挖掘基础。熟练掌握HIVE、SQL等相关数据提取工具技能,可熟练通过SQL独立完成相应数据分析需求,熟练掌握至少一种数据分析工具(Scala、Python等),有一定的编程功底; 3. 有丰富的跨团队、部门的项目资源整合能力,能够独立开展项目。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
岗位职责: 1. 在移动通信和移动互联网领域,利用数据科学专业知识进行通信与互联网机器学习,人工智能等相关产品的研发工作; 2. 运用量化分析、数据挖掘和数据可视化方面的专业知识,为我们提供超越数字层面的专业洞察; 3. 运用数据和业务规则解决大规模网络中系统和数据基础架构中潜在的问题; 4. 在跨功能域/跨职能部门的工作中定义问题陈述,收集数据,构建分析模型并提出建议; 5. 构建和维护数据驱动的优化模型,实验,预测算法和容量约束模型; 6. 建立分析模型来识别和输出推动网络系统关键决策; 7. 能熟练运用R,Python, Spark, Hadoop和SQL, Tableau等工具来提高分析效率; 8. 通过探索性分析以发现新机遇:了解移动通信和互联网生态系统,用户行为和长期趋势。 任职要求: 1. 计算机、通信与信息工程、数学、统计、电子工程、物理等相关专业的留学生博士、硕士; 2. 熟练掌握至少2种语言:Python, R, Matlab, SQL, Scala, Spark, PHP, SAS, Weka等; 3. 拥有优秀的统计知识; 4. 对移动通信或互联网行业知识有一定了解,包括移动互联网行业、手机制造商、通信网络设备供应商和/或芯片组供应商等; 5. 能与产品和领导团队流畅沟通分析结果,以讨论并影响产品战略的制定; 6. 有在国内外知名期刊或会议(SCI/EI检索)有通信、计算机或数据科学领域相关论文发表; 7. 具备较强的英文科研文献阅读与撰写能力。大学英语六级/或托福、雅思。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
职位职责: 1、在对产品增长业务理解的基础上,负责增长相关数据管理工作,跟进数据采集、核心指标构建及看板搭建和维护; 2、在数据建设的基础上进行线索增长分析,并进行线索质量评估,分析输出相应的优化策略,并跟进增长动作落地及效果评估; 3、主动进行产品功能及应用场景分析探查,通过跟踪和监控重点数据,发现潜在的问题与机会,给出数据支持、分析报告、问题解决方案建议,为业务决策提供数据支撑。 职位要求: 1、本科及以上学历,计算机科学、数理统计、数学、经济学等相关专业优先; 2、具备一定的数据分析工作经验,有过ToB商业化、产品相关分析经验,有一定行业背景,深度参与过新业务增长加分; 3、熟练掌握SQL、Python/R等数据分析工具和编程语言,熟悉Hadoop、Hive、Flink等大数据相关技术应用,能够高效地进行数据提取、清洗和分析; 4、熟练掌握数理统计方法,逻辑性好; 5、具备严谨的逻辑思维能力和强烈的好奇心,能够深入挖掘数据背后的价值;具备良好的沟通能力和团队合作精神,能够与不同部门的人员协作完成线索增长和评估任务; 6、有较强的学习能力和自我驱动力,能够快速适应不断变化的业务需求和数据分析技术;敢于表达观点,能独立负责具体项目完整分析,拿结果。
-
工作职责: 1. 负责公司内部商业化数据的开发和维护,为产品和营销团队提供数据支持和分析服务; 2. 设计和开发商业化数据仓库和数据集市,实现数据的采集、清洗、存储和分析; 3. 负责数据架构的设计和维护,确保数据准确性、完整性和安全性; 4. 参与业务需求分析和数据建模工作,编写SQL语句完成数据提取、转换和加载(ETL); 5. 能够独立完成数据问题的排查和处理,解决数据质量和性能问题; 6. 具有良好的沟通能力和团队协作能力,与不同部门的业务人员和技术人员合作,推进数据项目的进展。 工作要求: 要求: 1. 本科及以上学历,计算机、数学、统计等相关专业背景; 2. 2年以上数据开发经验,熟悉数据仓库和数据集市的设计和开发; 3. 熟悉大数据平台和工具,如Hadoop、Hive、Spark、Kafka、Flink等; 4. 熟悉数据仓库架构,了解数据仓库建模方法和技巧;
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
岗位职责: 1.负责QQ音乐平台用户增长的数据挖掘/分析/机器学习/因果推断模型建设工作; 2.负责海量用户的画像建设,并落地到推荐/增长策略; 3.大数据挖掘分析,独立完成专项分析,为策略迭代提供有效建议,探寻增长机会,建设实验机制持续驱动产品增长计划; 4.与用户增长产品&运营深度配合,将业务需求转化为数据问题,支持并引导业务发展,支持用户增长策略的AB实验,并沉淀方法论。 岗位要求: 1. 精通数据挖掘、机器学习、因果推断、分布式计算等相关技术,两年及以上工作经验; 2. 精通python、SQL编程,熟悉java/Scala等语言; 3. 善于在大数据中挖掘价值,优秀的产品/数据sense,逻辑思维; 4. 熟练掌握spark/hadoop/Hbase/es等大数据计算存储框架; 5. 熟悉用户画像建设,熟悉推荐系统相关机器学习; 6. 良好的团队合作能力,较强的沟通表达能力; 7. 有用户增长相关工作经验者优先。
-
岗位职责 1. 参与数据治理规划,制定详细的治理专项计划与实施方案,负责数据治理专项的整体推动; 2. 负责制定数据管理相关政策、制度、流程的方案,并推进实施落地; 3. 负责数据治理解决方案规划及实施,包括数据治理体系、数据架构与标准、数据质量、元数据管理、数据湖、数据主题联接、数据服务、数据分析和数据安全等方面的工作; 4. 分析数据现状,总结数据业务问题,并提出合理的解决方案。梳理数据资产(如数据目录、指标维度体系、标签体系、主数据等); 5. 研究与引入业界优秀的理论体系、解决方案、工具装备等。 任职要求 1. 本科及以上学历,数学、计算机或统计学专业,5年及以上数据管理相关工作经验,有制造行业数据相关背景优先; 2. 熟悉数据管理和数据治理相关理论与方法,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法; 3. 熟悉数据项目开发流程,能和设计人员、数据开发人员、运营人员紧密配合,协调和推进各方面工作; 4. 熟悉业界先进的数据治理相关产品和软件,了解数据湖、Hadoop、Spark、数仓、BI等平台和工具的优先; 5. 有良好的的沟通能力、逻辑思维能力和推动力; 6. 对DAMA、数据成熟度评估等方法论有较深刻的理解,有CDMP,CDGA、CDGP等数据治理证书优先。
-
职位职责: 字节跳动ByteDance Research致力于人工智能领域的前沿技术研究,涵盖自然语言处理、计算机视觉、机器学习、机器人、AI for Science、Responsible AI等多个领域,同时将研究成果落地,为公司现有的产品和业务提供技术支持和服务。 1、为视频生成模型训练生产高质量的训练数据; 2、负责/参与搭建数据生产工作流,并能够持续提升数据生产的效率、稳定性和易用性; 3、与算法工程师密切配合,理解视频生成模型研发流程,负责/参与模型生成中数据解决方案的设计、开发和维护;同时能够探索业界前沿的多模态数据处理相关技术,并应用到数据生产中。 职位要求: 1、计算机及相关专业本科或本科以上学历,良好的沟通和团队协作能力; 2、具有3年以上数据处理或模型训练相关经验,熟悉图像或视频数据处理方法; 3、精通Python或Golang至少一种编程语言;且能够熟练使用图像或视频数据处理库,实现具有高性能、高扩展的数据处理算法; 4、熟悉大数据分布式处理框架Spark、Flink、Hadoop、Ray者优先; 5、具有海量图像或视频数据处理、平台建设者优先。
-
工作职责 1. 负责微博搜索部门相关产品的数据处理、统计、分析以及报表和工具开发,为产品和业务决策等提供数据支持; 2. 负责搜索业务的用户分析、需求分析、效果分析,进行策略分析和调研; 3. 负责围绕搜索结果页优化方向进行数据分析和调研,并进行策略开发和优化,提升结果页的用户满意度; 4. 负责搜索业务的日志清洗和数据规则维护,和相关部门合作对统计数据中的问题进行跟踪、调查和解决; 任职条件 1. 熟练使用python技术栈,熟悉linux下的开发环境,有c++工作经验者优先; 2. 熟练使用python、hive sql语言对数据进行统计和分析,有实际工作经验; 2. 熟悉使用hive、hadoop(mapreduce开发)、spark、mysql、BI工具等常用的数据处理平台和工具; 3. 对于产品部门的数据统计分析需求能够很好的进行理解、开发、校验、分析; 4. 对数据敏感,能够独立设计分析方案,进行业务分析,产出分析报告; 5. 有开发和维护线上业务的能力,能够推进业务策略方案的落地和效果迭代; 6. 责任心强,业务理解能力强,对数据分析有自己的理解,能够和相关业务部门的同事很好合作;
-
岗位职责: (1)负责数据清洗、数据分析、数据挖掘、数据服务等; (2)负责与外部门信息交换的技术管理工作; (3)利用技术手段对客户信息进行技术分析和应用服务; (4)运用数据分析建设业务模型,并持续跟踪优化; (5)负责领导交办的其他工作。 任职资格: (1)计算机、数学、统计学等相关专业本科及以上学历,具备扎实的专业基础知识; (2)3年以上数据技术领域工作经验,熟悉大数据平台架构与关键技术; (3)熟练掌握Hadoop、Spark、Kafka等大数据处理框架,具备丰富的实战经验; (4)具备良好的数据建模、数据挖掘与数据分析能力,能够运用SQL、Python等语言进行数据处理与分析; (5)熟悉数据仓库、数据湖等数据存储技术,具备数据治理与数据安全方面的经验; (6)具备良好的团队协作与沟通能力,能够适应快节奏的工作环境,具备较强的抗压能力; (7)对新技术充满热情,具备较强的学习能力和创新意识。
-
岗位职责: 1.针对海量数据开发包括不局限于金融行业财富业务营销响应、流失预警等营销模型; 2.跟进实施以量化分析为基础的咨询项目,项目业务围绕财富金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3.熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4.对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 任职要求: 1.本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2.具备互联网/财富营销/金融科技机构模型开发/算法/量化策略相关实习经验; 3.熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4.了解 LR/RF/XGB/LGBM/FM 等机器学习算法的原理及其应用; 5.了解 Hadoop、Hive、Spark 的常用功能; 6.了解推荐算法中召回、排序阶段的常用模型和策略; 7.有金融行业背景、对金融行业财富营销业务有深刻理解者优先; 8.表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 9.具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;