-
1、负责移动通信数据分析系统数据仓库的设计、开发,各业务分析主题的数据模型设计,指标整理,数据库ER建模、维度建模和业务分析专题建模; 2、负责数据挖掘专题的需求分析、业务场景建模、实验模拟、制定分析挖掘目标,数据挖掘模型的设计、开发,数据挖掘算法的研究、设计、实现、优化,结果分析并验证修改模型和算法,挖掘结果展现,知识提取和整理; 3、负责数据挖掘过程中的数据抽取、处理、OLAP分析,挖掘算法优化、模型训练和修改,结果分析和展现等相关技术工作; 4、负责将研究成果与数据分析系统应用专题整合,在业务领域推广应用,以及咨询、技术交流等工作; 1、本科及以上学历,具备一个以上数据挖掘相关项目经验; 三年以上的数据开发或数据挖掘项目经验。 2、有数据挖掘项目的开发经验,具有独立完成建模、调试、优化和展现汇报的能力; 3、有运营商行业数据仓库系统开发经验者优先; 4、精通常见常用大数据技术,例如: hdfs、hive、hbase、saprk、flink 。具备常见大数据技术的全方位的能力,包括:搭建、开发、调优等,包括在相关技术栈上进行复杂代码编写,不仅仅是Sql开发; 5、精通至少一种MPP数据库的开发与使用,例如:clickhouse、starrock、gbase、Greenplum; 5、熟练掌握Mysql、PostgreSql等常见关系型数据库开发与调优技术; 6、精通常见的Nosql 数据库,例如:redis; 7、熟练使用至少一种任务调度工具; 8、有耐心,有钻研精神,严谨,细致;具有良好的团队合作精神,善于沟通;有强烈的责任心,积极主动; 9、能深度思考各种可能业务场景、综合考虑代码的可维护性、可运维性、服务的健壮性、及应规避的风险; 10、to G 或 to 大B的从业经验优先考虑,例如:运营商行业、政府行业、金融行业、公安行业等;
-
1、参与大数据项目的需求分析、系统架构设计、并完成需求设计相应文档的编写; 2、深入理解数据业务,负责业务模型抽象、数据模型的设计开发,特征提取、分析和挖掘工作; 3、参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系; 4、负责运营商、金融、交通、智慧公园等大数据中台数仓项目和数据治理类项目建设。 职位要求: 1、本科及以上学历,计算机或者数学等相关专业,具备2年以上大数据和数据仓库相关工作经验。 2、熟练掌握大数据开发工具的使用(hdfs、hive、hbase、spark、flink、kafka等) 3、熟悉SQL开发,复杂SQL优化,熟练使用mysql、oracle、hive等。 4、熟悉java/scala、python开发语言。 5、具有良好的沟通、理解及表达能力,具有良好的抗压能力,可接受出差。 7、具有大数据系统架构能力、或有团队管理经验的优先考虑。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
岗位职责 1、实时/离线数据湖内核功能研发以及性能优化,包括数据湖与hive\spark\flink的集成,索引功能开发,upsert功能开发等; 2、负责数据湖技术在公司内部以及外部项目的落地; 3、参与公司大数据平台建设。 岗位要求 1、本科及以上学历,计算机相关专业,3年以上相关经验; 2、熟悉Java或scala,熟悉Linux操作系统; 3、必备技能:Hive、MR(Java)、Flink、Spark;对大数据处理(Hadoop)、数据仓库结构有较深刻的认知; 4、工作态度端正,有较强的责任心及执行力,紧急工作能够快速响应; 5、有开源数据湖相关经验优先。 PS:公司预估九月初搬家至通州区北运河西地铁站附近,请确认好位置是否合适
-
工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析 2、协助总部研发进行数据导出 3、现场服务器运维 4、帆软报表开发 任职资格: 1、电子、计算机相关专业毕业。 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验;
-
工作职责 1. 负责微博搜索部门相关产品的数据处理、统计、分析以及报表和工具开发,为产品和业务决策等提供数据支持; 2. 负责搜索业务的用户分析、需求分析、效果分析,进行策略分析和调研; 3. 负责围绕搜索结果页优化方向进行数据分析和调研,并进行策略开发和优化,提升结果页的用户满意度; 4. 负责搜索业务的日志清洗和数据规则维护,和相关部门合作对统计数据中的问题进行跟踪、调查和解决; 任职条件 1. 熟练使用python技术栈,熟悉linux下的开发环境,有c++工作经验者优先; 2. 熟练使用python、hive sql语言对数据进行统计和分析,有实际工作经验; 2. 熟悉使用hive、hadoop(mapreduce开发)、spark、mysql、BI工具等常用的数据处理平台和工具; 3. 对于产品部门的数据统计分析需求能够很好的进行理解、开发、校验、分析; 4. 对数据敏感,能够独立设计分析方案,进行业务分析,产出分析报告; 5. 有开发和维护线上业务的能力,能够推进业务策略方案的落地和效果迭代; 6. 责任心强,业务理解能力强,对数据分析有自己的理解,能够和相关业务部门的同事很好合作;
-
职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题,对系统架构设计有丰富的经验,能够给出合理的设计方案; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 三年以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
职位职责: 1、通过定量分析、数据挖掘、数据建模和数据呈现等手段,深入理解开发者需求及痛点; 2、通过探索性的数据分析与数据建模,从数据中洞察、挖掘研发工具类业务存在的关键问题,并提出相应的产品体验提升及业务增长方案; 3、能根据业务需求完成较为深入的专项数据分析,通过对数据的敏锐洞察、定性和定量分析、以及模型建设,迅速定位内部问题或发现机会; 4、与产品、运营、研发以及其他部门跨团队高效合作,完成高质量沟通,推动并确保数据分析结论的落地与持续优化; 5、负责部门的数据资产维护、管理和建设。 职位要求: 1、5年及以上数据分析/数据科学行业经验; 2、本科以上学历,统计学、经济学,数学、计算机科学相关专业优先; 3、扎实的数据分析理论和技术基础,较好的学习能力;能理解开发者业务逻辑,能根据数据提供合理的业务洞察及见解,推动产品优化和迭代; 4、熟练使用SQL和其他数据分析/建模语言(Python, R等),掌握Tableau、PowerBI等数据可视化工具者。
-
职位职责: 1、负责飞书People产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责打通不同业务线数据内容,形成统一数据模型; 4、负责全产品线数据治理,提升数据资产质量。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品思维,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
-
所有岗位均可远程办公,以下是每个岗位的重点要求,详细JD可私信发送 -golang:熟悉中间件开发,或者熟悉Docker, Kubernetes(K8s),或者处理过高并发业务 -编译器开发:掌握编译原理和基本概念、编译器开发经验、解释器开发经验 -引擎开发:交易系统、分布式事务、分布式交易方向,开发语言golang或者LinuxC都可以;互联网背景优先 -数据负责人:数据组负责人,负责数据组日常管理及数据工作流程制定等;数据要求:千万级以上用户量,总处理数据规模大于100T,单日处理数据居量在亿级别; 管理经验:有带领10-20人团队经验,并且可独立参与技术细节; -数据开发:需要有flink经验 -运维负责人:运维小组负责人,负责运维组工作统筹规划、流程制度建设 -运维工程师:大厂体系化工作经验优先;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -研发工程师:最好有大厂体系化工作经验;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -前端:react技术栈
-
一、岗位职责: 1. 协同软件架构师针对特定计算平台设计智能驾驶软件架构 ; 2. 根据智能驾驶业务需求负责系统异构计算平台功能数据流业务实现 ; 3. 基于目标计算平台及软件业务需求实现高效数据吞吐,优化系统时延及计算资源开销; 4. 实现传感器抽象,硬件抽象,系统及软件模块业务和调度 ; 5. 实现基于SOA的智驾相关服务应用开发; 6. 针对智驾异构传感器,实现相关的高效数据流模块,支持上层应用业务。 二、岗位需求: 1. 本科或以上学历,计算机或相关专业本科及以上学位; 2. 精通至少一门编程语言(C++优先),注重编码规范; 3. 有异构计算平台研发经验优先,有智能驾驶功能研发方面经验优先; 4. 熟悉Linux操作系统;具有DDS,ROS,IPC, SHM等开发经验 ; 5. 良好的沟通表达能力,团队合作能力 。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。