-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
岗位职责: 1. 负责微博汽车等多条业务线相关服务端研发、性能优化等工作 2. Linux服务器系统安装及日常运维管理 3. 应用系统的环境发布:包括环境搭建、应用部署、维护、升级等工作 4. 持续对工程进行改进与优化,提高开发能力和效率。 5. 有熟悉Python,Golang,AIGC优先。 6. 本科及以上学历要求。 任职要求: 1、3-5年PHP后端开发经验,熟悉常用的后端开发框架和技术,了解框架的运行原理,熟悉Yaf、CI等框架。 2、熟悉MySQL、Mongodb等数据库的设计和优化,具备良好的SQL编程能力。 3、熟练掌握redis、Elasticsearch、kafka等中间件技术。 4、对于python和go语言有一定的了解,能快速响应不同产品需求下对于开发语言的切换要求。 5、熟悉Linux操作系统,具备服务器部署、配置和监控经验,熟悉docker、k8s者优先。 6、熟悉大数据相关技术,如Hadoop、Spark等优先。 7、具备良好的编程习惯和代码规范,熟悉版本控制工具如Git。 8、具备良好的团队合作精神和沟通能力,能够与产品、前端等团队紧密合作。 9、喜欢专研、对新技术和开发方法有持续的学习和探索欲望,能够快速适应项目需求和技术变化。
-
岗位职责: 1、对重要业务线设计指标,监控异常,针对业务痛点设计数据解决方案并推动产品、运营或战略决策、落地; 2、深入理解业务问题,通过细致的数据洞察,可抽象出针对性的策略和算法模型; 3、精通AB实验,了解因果推断方法论。通过设计正确合理的A/B实验来加快产品或策略的迭代,具备深入分析实验结果并给出前瞻性策略指引的能力。 岗位要求: 1、**本科,计算机、统计、数学等专业背景优先;2年以上数据分析工作经验。 2、有数据驱动意识,参与过重要数据决策项目(比如搜索推荐相关业务)的优先; 3、具备扎实的编程基础(Python/SQL等)、大数据平台使用经验(Hive/Spark等)和数据分析(Excel, Tableau,PowerBI等)、数据挖掘工具(Scikit-Learn/Keras/TensorFlow)等类型技能的一种或多种; 4、有将数据转化成可理解和执行的决策(A/B实验,产品方案,运营策略等)能力; 5、良好的团队合作意识和积极主动的owner意识。
-
岗位职责: 1. 搜索排序方向:包括粗排、精排、混排,构建特征工程、多目标学习、在线模型推理、以及垂类优化等任务; 2. Query理解方向:包括纠错、改写、意图、词权重、紧密度、丢词、成分分析等任务; 3. 曲库建设方向:包括歌曲分类体系建设,标签挖掘,向量化建设等; 4. 用户画像方向:包括属性挖掘,兴趣体系建设,行为模式挖掘等; 5. NLP研究方向:包含分词、实体识别、标签提取、文本分类、模型预训练、语义向量等任务。 岗位要求: 1. 计算机、机器学习和数学等相关专业,硕士及以上学历; 2. 3年以上搜推广相关工作经验; 3. 有丰富的c++/java/python等主流编程语言经验,扎实的算法与数据结构功底,优秀的机器学习基础,良好的数学与统计基础; 4. 熟悉hive,spark等大数据处理工具,有丰富的数据处理与挖掘经验; 5. 至少熟练掌握一种深度学习框架; 6. 有以下一项或多项将优先考虑:1)有丰富NLP落地经验,有大规模数据建模经验,熟悉搜索、推荐、广告业界前沿算法;2)有完整数据体系建设经验,包括用户画像、物品画像、数据质量评估与监控等;3)有优秀论文发表者优先。
-
岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责 1. 参与数据治理规划,制定详细的治理专项计划与实施方案,负责数据治理专项的整体推动; 2. 负责制定数据管理相关政策、制度、流程的方案,并推进实施落地; 3. 负责数据治理解决方案规划及实施,包括数据治理体系、数据架构与标准、数据质量、元数据管理、数据湖、数据主题联接、数据服务、数据分析和数据安全等方面的工作; 4. 分析数据现状,总结数据业务问题,并提出合理的解决方案。梳理数据资产(如数据目录、指标维度体系、标签体系、主数据等); 5. 研究与引入业界优秀的理论体系、解决方案、工具装备等。 任职要求 1. 本科及以上学历,数学、计算机或统计学专业,5年及以上数据管理相关工作经验,有制造行业数据相关背景优先; 2. 熟悉数据管理和数据治理相关理论与方法,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法; 3. 熟悉数据项目开发流程,能和设计人员、数据开发人员、运营人员紧密配合,协调和推进各方面工作; 4. 熟悉业界先进的数据治理相关产品和软件,了解数据湖、Hadoop、Spark、数仓、BI等平台和工具的优先; 5. 有良好的的沟通能力、逻辑思维能力和推动力; 6. 对DAMA、数据成熟度评估等方法论有较深刻的理解,有CDMP,CDGA、CDGP等数据治理证书优先。
-
岗位职责: 1. 负责业务安全风控算法研发,包括不限于音乐和社交业务中的安全用户画像/账号信用体系/黑灰产/支付风险等问题的挖掘分析与建设落地; 2. 深入了解音乐与社交业务形态及特性,定义风险场景,明确风险水位及管控目标,平衡风险与业务收益; 3. 落地风险发现到拦截处置效果追踪的解决方案,为风控提供基础识别及前置拦截能力; 4. 协调横向团队,与产品、研发、算法协同落地防控方案,从风控识别、打击、体验等多维度完善风控体系。 岗位要求: 1. 硕士研究生及以上学历,大数据分析、AI或计算机相关专业毕业,1年及以上数据分析相关经验; 2. 熟练掌握Python语言以及SQL,具有良好的工程编码实现能力; 3. 扎实的机器学习基础,包括分类、回归、聚类等,如LR、svm、GBDT、kmeans等; 4. 对大数据、分布式计算工具(MapReduce、Hadoop、Hive、Spark等)有相关经验优先; 5. 有画像/风控/账号/生态治理经验者,安全行业经验者优先; 6. 具有数据和业务敏感性,善于从数据中发现/思考并解决问题,优秀的分析问题和解决问题的能力,责任心强,积极主动,有良好的沟通能力和团队合作能力。
-
岗位职责: 主要负责Klook支付、风控系统研发及日常维护工作,与产品密切配合,保证业务需求的高效落地; 负责管理自身项目和需求的优先级、按时高质量交付; 推动团队应用优秀的软件工程方法论,Code review 保证团队交付质量; 解决系统疑难杂症,参与技术方案讨论,技术驱动解决业务问题; 有较强的工作责任心和良好的沟通协调能力,能在压力下独立解决问题。 任职要求: 熟练掌握Golang/Java语言,具有扎实的计算机基础和编程能力,熟悉常见的算法与数据结构; 负责过大型项目系统设计,具备系统抽象能力,熟悉Restful接口设计,有过互联网业务系统或相关技术产品开发经验; 熟练掌握MySQL数据库,擅长SQL优化,有大数据开源组件和关系图谱使用经验,至少熟悉kafka/es/mongodb/hbase/spark/flink/influxdb/neo4j中的2~3项,熟悉常见的大数据处理技术; 有支付、风控、反爬虫从业经验者优先,电商类项目经验优先(支付平台、收银平台、海外支付网关、风险控制平台、决策引擎、数据平台),开源贡献者优先、GitHub源码者优先、技术博客者贡献者优先。
-
岗位职责: (1)负责数据清洗、数据分析、数据挖掘、数据服务等; (2)负责与外部门信息交换的技术管理工作; (3)利用技术手段对客户信息进行技术分析和应用服务; (4)运用数据分析建设业务模型,并持续跟踪优化; (5)负责领导交办的其他工作。 任职资格: (1)计算机、数学、统计学等相关专业本科及以上学历,具备扎实的专业基础知识; (2)3年以上数据技术领域工作经验,熟悉大数据平台架构与关键技术; (3)熟练掌握Hadoop、Spark、Kafka等大数据处理框架,具备丰富的实战经验; (4)具备良好的数据建模、数据挖掘与数据分析能力,能够运用SQL、Python等语言进行数据处理与分析; (5)熟悉数据仓库、数据湖等数据存储技术,具备数据治理与数据安全方面的经验; (6)具备良好的团队协作与沟通能力,能够适应快节奏的工作环境,具备较强的抗压能力; (7)对新技术充满热情,具备较强的学习能力和创新意识。
-
职位职责: 1、负责飞书People产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责打通不同业务线数据内容,形成统一数据模型; 4、负责全产品线数据治理,提升数据资产质量。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品思维,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
-
1、参与大数据项目的需求分析、系统架构设计、并完成需求设计相应文档的编写; 2、深入理解数据业务,负责业务模型抽象、数据模型的设计开发,特征提取、分析和挖掘工作; 3、参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系; 4、负责运营商、金融、交通、智慧公园等大数据中台数仓项目和数据治理类项目建设。 职位要求: 1、本科及以上学历,计算机或者数学等相关专业,具备2年以上大数据和数据仓库相关工作经验。 2、熟练掌握大数据开发工具的使用(hdfs、hive、hbase、spark、flink、kafka等) 3、熟悉SQL开发,复杂SQL优化,熟练使用mysql、oracle、hive等。 4、熟悉java/scala、python开发语言。 5、具有良好的沟通、理解及表达能力,具有良好的抗压能力,可接受出差。 7、具有大数据系统架构能力、或有团队管理经验的优先考虑。
-
岗位要求: 1.负责深信服AI PaaS应用开发平台模块设计和功能开发,提升用户AI应用的开发效率、降低开发门槛,为业务智能快速创新赋能 2.对接客户构建垂直场景的AI应用快速发布的产品解决方案,支持用户AI应用快速交付 3.研究支撑AI应用开发主要组件(如prompt工程、agent编排、RAG方案、插件使用等方向)的开源方案、面向生产化的工程实践优化 4.持续跟踪国内外AI平台的最新技术和发展趋势,推动AI平台的技术升级 任职要求: 1.本科及以上学历,有5年以上研发工作经验,有较深的计算机相关专业知识背景。 2.熟悉常见AI和大数据框架Hadoop/Spark/Tensorflow/pytorch/keras等,熟悉各种分布式计算框架,例如Hadoop/Map-Reduce/MPI/Spark/TensorFlow等分布式计算框架,对于如何创新设计新的体系来支撑更大更快的机器学习算法有强烈兴趣;熟练掌握docker及kubernetes等平台,对高并发,高吞吐,分布式业务系统有设计、实现等实战经验; 3.具备3年及以上分布式后台服务开发经验,具备多语言多组件的条件的服务集群开发经验,产品开发中实际使用分布式计算/实时计算框架及分布存储/缓存框架等,使用Java/C++/Go等编程语言进行过大型分布式软件开发。 4.熟悉深度学习技术框架及工作原理,能熟练安装、部署、运维和调优这些框架(如Tensorflow/Pytorch,MXNet等), 有机器学习平台(Kubeflow、Ariflow、dify.ai等)开发经验者优先,有AI应用开发经验者优先; 5.优秀的团队协调能力;具备较强的ownership,以结果为导向,在负责领域内善于思考并积极改进。
-
工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析 2、协助总部研发进行数据导出 3、现场服务器运维 4、帆软报表开发 任职资格: 1、电子、计算机相关专业毕业。 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验;