-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
岗位职责: 1、参与大数据项目的需求分析、系统架构设计、并完成需求设计相应文档的编写; 2、深入理解数据业务,负责业务模型抽象、数据模型的设计开发,特征提取、分析和挖掘工作; 3、参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系; 4、负责运营商、金融、交通、智慧公园等大数据中台数仓项目和数据治理类项目建设。 任职要求: 1、本科及以上学历,计算机或者数学等相关专业,具备5年以上大数据和数据仓库相关工作经验。 2、熟练掌握大数据开发工具的使用(hdfs、hive、hbase、spark、flink、kafka等) 3、熟悉SQL开发,复杂SQL优化,熟练使用mysql、oracle、hive等。 4、熟悉java/scala、python开发语言。 5、具有良好的沟通、理解及表达能力,具有良好的抗压能力,可接受出差。 6、具有大数据系统架构能力、及有团队管理经验的优先考虑。
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
岗位职责 1、实时/离线数据湖内核功能研发以及性能优化,包括数据湖与hive\spark\flink的集成,索引功能开发,upsert功能开发等; 2、负责数据湖技术在公司内部以及外部项目的落地; 3、参与公司大数据平台建设。 岗位要求 1、本科及以上学历,计算机相关专业,3年以上相关经验; 2、熟悉Java或scala,熟悉Linux操作系统; 3、必备技能:Hive、MR(Java)、Flink、Spark;对大数据处理(Hadoop)、数据仓库结构有较深刻的认知; 4、工作态度端正,有较强的责任心及执行力,紧急工作能够快速响应; 5、有开源数据湖相关经验优先。 PS:公司预估九月初搬家至通州区北运河西地铁站附近,请确认好位置是否合适
-
一、岗位职责: 1. 协同软件架构师针对特定计算平台设计智能驾驶软件架构 ; 2. 根据智能驾驶业务需求负责系统异构计算平台功能数据流业务实现 ; 3. 基于目标计算平台及软件业务需求实现高效数据吞吐,优化系统时延及计算资源开销; 4. 实现传感器抽象,硬件抽象,系统及软件模块业务和调度 ; 5. 实现基于SOA的智驾相关服务应用开发; 6. 针对智驾异构传感器,实现相关的高效数据流模块,支持上层应用业务。 二、岗位需求: 1. 本科或以上学历,计算机或相关专业本科及以上学位; 2. 精通至少一门编程语言(C++优先),注重编码规范; 3. 有异构计算平台研发经验优先,有智能驾驶功能研发方面经验优先; 4. 熟悉Linux操作系统;具有DDS,ROS,IPC, SHM等开发经验 ; 5. 良好的沟通表达能力,团队合作能力 。
-
职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
-
岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。
-
必要条件 学信网可查*****本科(20年之前毕业) 任职要求: 1、至少2年以上数据库ETL开发工作经验; 2、有数据仓库或大数据平台建设项目经验,了解hadoop或MPP的基本原理; 3、有扎实的SQL功底,有SQL查询调优的经验; 4、熟练使用至少一种关系型数据库,如oracle,mysql,有使用GreenPlum和clickhouse的经验优先; 5、有常用ETL工具使用经验,如Kettle,有DataX的使用经验优先; 6、对python有过应用经验的优先; 7、有基金或金融行业项目经验的优先。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 一年及以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论