-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
工作职责 1. 数据面性能测试工具(spate)研发; 2. LR-GW 研发; 3. EP-GW 研发; 4. L4LB-GW 研发。 任职要求 1. 熟悉Linux操作系统下C/C++开发,能运行常见工具定位调试问题代码; 2. 熟悉Linux内核网络协议栈,有内核开发经验; 3. 熟悉路由器/交换机工作原理,熟悉NAT、VPN、负载均衡、SDN、NFV、Overlay等网络技术; 4. 熟悉Openstack/Cloudstack等云平台,有OVS/OVS-DPDK等开发经验者优先; 5. 熟悉DPDK、VPP等,有用户态协议栈开发经验者优先; 6. 良好的沟通与团队协作能力。
-
职位职责: 1、参与数据中台的汇聚和采集ETL详细设计和开发工作; 2、负责数据平台相关数据管理工作,如研发规范、质量规范、保障规范的制定与推动实施落地; 3、负责数据分析需求的模型开发和实现; 4、负责来自业务团队数据方面的研发需求。 职位要求: 1、5年以上大数据开发经验,精通SQL语言,具备存储过程开发能力,能熟练进行SQL查询优化; 2、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想,了解数据仓库、CDP者优先; 3、熟悉Hadoop、Spark、Flink、Sqoop、DataX、Hive、Flume、Kafka等相关技术; 4、熟练Scala、Python、Java中至少一种语言; 5、具有良好服务意识,抗压力和沟通能力强,有过ToB行业服务经验优先。
-
职位职责: 1、负责抖音生活服务服务商平台核心数据系统服务端研发工作; 2、负责持续改善服务质量,提高系统稳定性和高可用性,减少线上反馈; 3、深入与产品形成协同,将技术应用到业务场景,达成产品业务目标; 4、对所负责的模块范围,有自己的技术规划。 职位要求: 1、本科及以上学历,计算机、通讯等相关专业,3年及以上大数据研发工作经验; 2、扎实的计算机知识,有较强的逻辑能力和学习能力,深入了解Go、Python、Java等至少一门语言; 3、熟悉分布式系统设计、大数据处理设计、微服务系统设计、稳定性治理、常用中间件原理以及实践等优先; 4、热爱编程,责任心强,有较强的学习能力,有强烈的求知欲,具有良好的团队沟通与协作能力; 5、有电商、O2O经验优先;有酒旅、外卖等行业经验的优先。
-
数据研发岗: 岗位职责: 1、负责业务需求承接和相关数据及报表研发工作; 2、承接业务需求,按照业务要求,按质按量完成需求交付,沉淀数据资产; 3、可独立完成需求拆解,数据模型设计,数据研发和开发及测试工作。 岗位要求: 1、计算机相关专业本科以上学历。 2、1年以上工作经验。 3、熟悉主流分布式计算工具,hadoop, spark, hbase等,精通SQL开发,熟悉MapReduce原理; 4、有一定的数据仓库开发经验,对各类数据模型设计方法有比较全面和深入的了解。 5、掌握java/python编程中的至少一种; 6、具备较好的数据抽象能力和主观能动性,能够从实际问题出发,提出数据解决方案并跟进方案落地;
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
工作职责: 1、负责公司数据平台产品的需求分析以及系统设计; 2、负责子版本的迭代功能的设计与开发; 3、根据开发过程中遇到的各类问题和潜在风险,对产品提出改进建议。 4、具有数据平台系统开发经验者优先。 经验要求: 1、3年以上的java技术战的开发经验,熟悉Spring Boot,具备分布式架构系统开发经验者优先; 2、优秀的数据库设计和优化能力,熟悉Mysql,Redis,ES,Doris者优先; 4、熟悉Linux、Nginx、Bash、Python者优先; 能力要求: 1、具备产品思维,良好的沟通能力和团队意识; 2、具备良好的时间管理和流程意识,善于学习,可快速适应新项目新技术; 3、具备前端或是开放平台设计及开发经验优先。
-
职位描述 1. 基于蚂蚁国际业务场景,分析评估数据安全的风险现状,设计并推动数据安全保障方案落地 2. 制定运营指标,建设运营平台、流程和策略,降低数据泄露风险,负责数据安全事件响应处置 3. 负责各个业务域的数据风险识别、数据安全风险评估工作 职位要求 1. 计算机、信息安全类相关专业,3年以上信息安全工作经验 2. 熟悉主流的数据安全技术解决方案,包括但不限于权限管理平台、数据加密、数据防泄漏、数据脱敏、API安全、数据资产安全管理等; 3. 熟悉云安全,有云安全经验,阿里云为主 4. 大型企业数据安全管理落地实践工作经验优先 5. 有良好组织协调及跨部门沟通能力,英语可作为日常办公交流语言 加分项:拥有CISSP/CISA资质
-
岗位职责: 1.建立面向大语言模型的数据去重、清洗、过滤能力。 2.高效处理海量数据,探索大语言模型的数据混合配比。 3.建立大语言模型的通用和领域评测能力。 4.持续跟进行业最新进展,不断优化提升面向大模型的数据算法能力。 任职资格: 1.计算机、人工智能、自然语言处理或相关领域的硕士或博士,能力突出的本科生。 2.具备良好的编程能力,熟练掌握Python等编程语言,掌握PyTorch等至少一种深度学习框架。 3.具备良好的沟通和团队协作能力,有较强的解决问题能力和动手能力。 4.具备1年以上相关领域的工作经验
-
岗位职责: 1、参与页面分析挖掘算法的研究与实现,通过算法策略优化页面分类模型、文本分类模型。 2、利用文本挖掘、图像理解等业界先进技术,对多模态内容进行挖掘与理解。 3、工作范围涵盖网页筛选与理解、网页与站点分类和去重、多类型非网页类多模态数据的处理和理解。 岗位基本要求: 1、计算机相关专业本科及以上相关学历,具备优秀的理解力、沟通能力和团队协作能力。 2、熟练掌握 c++/python/Java等编程语言,并且在机器学习,自然语言处理领域有扎实的理论功底和动手能力。具备优秀的逻辑思维能力和数据科学能力,在相关领域比赛中获奖优先。 3、在信息检索、自然语言处理/图像与视频理解等方面有非常扎实的理论功底,以及丰富的解决实际问题的项目经验。有信息检索相关领域工作经验优先。 4、善于学习领域前沿技术并能快速应用到实际工作当中,在自然语言处理,信息检索、计算机视觉等领域有相关学术论著优先。
-
岗位职责: 负责大数据平台的技术方案设计、推动大数据平台的架构落地并持续完善、同时负责信贷大数据相关应用的开发及实施 岗位要求: 1)本科及以上学历,5年以上相关工作经验,35周岁以下,XX大学XX学院若写成XX大学视为简历造假; 2)具备DW/BI架构体系的建设经历并熟悉Hadoop生态圈; 3)熟悉了解shell、java、python、sql等计算机技术知识,具备极强的数据挖掘和分析能力。 4)具备金融或科技行业大数据项目开发经验者优先。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;