-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
1、负责移动通信数据分析系统数据仓库的设计、开发,各业务分析主题的数据模型设计,指标整理,数据库ER建模、维度建模和业务分析专题建模; 2、负责数据挖掘专题的需求分析、业务场景建模、实验模拟、制定分析挖掘目标,数据挖掘模型的设计、开发,数据挖掘算法的研究、设计、实现、优化,结果分析并验证修改模型和算法,挖掘结果展现,知识提取和整理; 3、负责数据挖掘过程中的数据抽取、处理、OLAP分析,挖掘算法优化、模型训练和修改,结果分析和展现等相关技术工作; 4、负责将研究成果与数据分析系统应用专题整合,在业务领域推广应用,以及咨询、技术交流等工作; 1、本科及以上学历,具备一个以上数据挖掘相关项目经验; 三年以上的数据开发或数据挖掘项目经验。 2、有数据挖掘项目的开发经验,具有独立完成建模、调试、优化和展现汇报的能力; 3、有运营商行业数据仓库系统开发经验者优先; 4、精通常见常用大数据技术,例如: hdfs、hive、hbase、saprk、flink 。具备常见大数据技术的全方位的能力,包括:搭建、开发、调优等,包括在相关技术栈上进行复杂代码编写,不仅仅是Sql开发; 5、精通至少一种MPP数据库的开发与使用,例如:clickhouse、starrock、gbase、Greenplum; 5、熟练掌握Mysql、PostgreSql等常见关系型数据库开发与调优技术; 6、精通常见的Nosql 数据库,例如:redis; 7、熟练使用至少一种任务调度工具; 8、有耐心,有钻研精神,严谨,细致;具有良好的团队合作精神,善于沟通;有强烈的责任心,积极主动; 9、能深度思考各种可能业务场景、综合考虑代码的可维护性、可运维性、服务的健壮性、及应规避的风险; 10、to G 或 to 大B的从业经验优先考虑,例如:运营商行业、政府行业、金融行业、公安行业等;
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
岗位职责 1、实时/离线数据湖内核功能研发以及性能优化,包括数据湖与hive\spark\flink的集成,索引功能开发,upsert功能开发等; 2、负责数据湖技术在公司内部以及外部项目的落地; 3、参与公司大数据平台建设。 岗位要求 1、本科及以上学历,计算机相关专业,3年以上相关经验; 2、熟悉Java或scala,熟悉Linux操作系统; 3、必备技能:Hive、MR(Java)、Flink、Spark;对大数据处理(Hadoop)、数据仓库结构有较深刻的认知; 4、工作态度端正,有较强的责任心及执行力,紧急工作能够快速响应; 5、有开源数据湖相关经验优先。 PS:公司预估九月初搬家至通州区北运河西地铁站附近,请确认好位置是否合适
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
中级数据库开发, 北京四部, **本科双证,计算机相关专业, 要求熟悉存储过程、批量业务 技能要求: 1)本科3年以上,计算机相关专业(学信网可查)。 2)熟练掌握使用Oralce、MySQL等数据库,具备良好的OOP设计开发理念,对设计模式能够熟练理解并使用 3)熟练使用shell脚本,可独立完成相关功能设计及工具实现。 4)有良好的沟通能力、学习能力、肯吃苦; 5)具有银行业相关经验者优先
-
必要条件 学信网可查*****本科(20年之前毕业) 任职要求: 1、至少2年以上数据库ETL开发工作经验; 2、有数据仓库或大数据平台建设项目经验,了解hadoop或MPP的基本原理; 3、有扎实的SQL功底,有SQL查询调优的经验; 4、熟练使用至少一种关系型数据库,如oracle,mysql,有使用GreenPlum和clickhouse的经验优先; 5、有常用ETL工具使用经验,如Kettle,有DataX的使用经验优先; 6、对python有过应用经验的优先; 7、有基金或金融行业项目经验的优先。
-
职位职责: 1、背靠完善的数据体系,让大数据能力通过产品放大高效赋能业务; 2、负责数据产品、数据服务相关的技术架构设计和实现; 3、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力,有中长期的产品/技术视野; 2、熟悉java技术栈,了解微服务框架、容器、服务治理等相关技术; 3、有大数据开发经验者优先,如查询引擎、MPP引擎、对实时和离线数据仓库有一定的认知能力; 4、具备优秀的技术与业务结合能力。
-
职位职责: 1、负责字节跳动国际支付的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。
-
工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析 2、协助总部研发进行数据导出 3、现场服务器运维 4、帆软报表开发 任职资格: 1、电子、计算机相关专业毕业。 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验;
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
热门职位