-
1、根据业务需求进行需求分析、完成 BTL 教据建模、模型开发等工作,与应用、测试良好的沟通完成需求迭代; 2、模型分析,与存汇款、大教据平台等核心系统保持教据同步完整性及教据准确性; 3、快速完成生产问题排查与解决。 4、熟练掌握 SQL 语法,具备 SqI 调优能力,良好的教据库技术背景,能基于大教据平台进行教据建模及数据开发等工作。 5、良好的 ETL 处理能力,熟悉 Hadoop 、 Hive 、 vertica 、Sparksq;任务调度、 Linux 、 Shell 等相关技术栈,优秀的开发实战、性能优化能力。 6、对教据敏感,能在日常工作中对大教据进行教据分析、教据核验、教据治理优先。 7、熟悉银行存汇款等核心系统的业务及教据库模型优先。有较好的文档写作能力; 8、有较强的机行力;有较好的团队意识、适应能力、具有良好的沟通协调能力;抗压能力较强;
-
岗位职责: 1、负责编写ETL映射; 2、根据业务需求及数据仓库模型进行ETL开发。 任职要求: 1、计算机或相关专业本科以上学历; 2、熟悉ETL架构,有三年以上丰富的ETL、数据处理相关开发经验; 3、了解数据仓库模型,有数据仓库开发、实施的经验,有3年银行业相关经验;有监管经验优先; 4、精通datastage等主流ETL工具的优先考虑; 5、精通Shell或python或perl语言的优先考虑; 6、精通SQL语言,精通DB2、Oracle等主流数据库开发的一种,有DB2开发经验者优先; 7、具备很强的责任心、良好的沟通能力、积极的工作态度和团队合作意识; 8、CDH、TDH等大数据平台开发经验的优先。
-
1、**专 科及以上,计算机、软件工程、数学等相关专业; 2、5年 及 以上工作经验,其中3年以上大数据平台数据项目开发经验; 3、精通ETL开发工具informatica,有ETL脚本和调度程序开发经验;(必须项) 4、精通关系型数据库如MySQL、ORACLE,有丰富的SQL开发和性能调优经验; 5、对hive、spark、map/reduce、kafka有深入了解;熟悉linux环境和命令; 6、表达流畅,善沟通,能较好理解用户需求;对新技术充满激情,做事认真负责;
-
工作职责: 1、负责医疗数据的ETL开发,对异构数据进行数据清洗,抽取; 2、负责数据清洗和和挖掘策略的制定; 3、参与数据平台架构的设计、开发、流程优化及解决ETL相关技术问题;4、负责ETL数据准确性验证及报表维护; 5、参与数据结构设计。 任职资格: 1、至少3年以上数据平台或医疗行业开发工作经验,并实际参与过数据集成或ETL开发,熟悉Kettle、DataStage等工具的使用; 2、熟悉HIS、EMR、LIS、PACS/RIS、PEIS、HRP等系统的功能模块、业务流程、数据库结构,实际参与过医院信息集成平台项目的开发建设者优先; 3、熟悉Mysql,Oracle,MongoDB等数据库; 4、能熟练进行SQL查询优化,熟练使用存储过程、有海量数据处理经验者优先; 5、了解Hadoop,Spark,Hive等开源分布式框架者优先; 6、熟悉java或python开发者优先; 7、较强的分析及建模抽象能力,能够理解业务并预估业务变化; 8、对数据敏感,逻辑严谨,责任心强,工作主动自驱,沟通能力强。
-
职责描述: 1、负责数据仓库和ETL任务的开发、调优、运维等工作; 2、参与数据治理,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,与业务团队紧密合作,发挥数据价值; 5、协助处理数据项目设计与开发工作; 6、协助处理数据采集、清洗、建模、加工等数据开发工作 7、协助处理数据需求的需求理解、数据开发, 岗位要求: 1、大专及以上学历,计算机相关专业,有电商经验 2、精通 SQL,有较好的 SQL 性能调优经验,了解 hive/MySQL 的基本原理和调优策略 3、熟悉常用的数据处理方法和工具,精通Python/shell语言的一种或多种,编码基本功扎实 4、熟悉Hadoop数据开发工具使用及其原理,括Hive, Spark SQL等 5、精通主流数仓及BI平台,熟悉分布式、缓存、消息、NoSQL技术及其生态圈 6、具有良好的沟通能力,有团队合作精神,工作积极主动,抗压能力强
-
1、4年以上ETL开发经验 2、熟悉databricks或者Informatica, 3、有azure或者大数据云经验,有管理经验优先; 4、英语4级以上,听说读写熟练,英语口语流利
-
岗位说明: 1. 参与甲方(银行或保险公司)的数据ETL相关工作; 2. 随时可进场; 3. 实习期至少到25年3月份; 4. 实习期间表现优秀者可转正; 5. 本科生120元/天,研究生150元/天。 岗位职责: 1. 参与银行/保险数据仓库、数据集市等数据应用系统的架构设计; 2. 参与各项目数据治理方案设计,数据治理实施落地; 3. 参与ETL过程设计和ETL开发; 4. 参与项目相关技术文档的编写和维护; 岗位要求: 1. ***本科或以上学历,计算机专业优先; 2. 熟悉主流数据库(Oracle、SQL Server、MySQL)等主流数据库; 3. 熟练掌握SQL语言,能熟练运用SQL开发存储过程和函数等; 4. 熟悉Kettle、Sqoop、Flink、Streamsets等相关ETL工具更佳; 5. 掌握ETL设计流程基础知识,了解数据仓库原理和架构; 5. 掌握常用的Linux命令,能进行Shell脚本编写更佳; 6. 具备良好的表达和沟通能力,较强的抗压能力,责任心强,思路清晰。
-
岗位职责: 1、参与保险项目开发、实施、维护,负责与客户沟通及问题解决。 2、参与项目的的数据库开发,如存储过程、函数。 3、负责数据库设计与plsql开发 4、负责数据库sql优化、统计、分析 任职要求: 1、2年及以上ETL相关工作经验 2、精通Oracle数据库,有良好的sql开发技能,能熟练编写Oracle数据库中存储过程、函数。 3、熟悉Linux常用系统管理及文件管理命令,熟悉shell脚本编写。 4、熟练使用kettle工具进行数据开发。 5、具有一定的问题分析及决绝方案设计能力以及一定的文档编写能力。 6、熟悉Java开发语言优先,熟悉保险业务优先。
-
岗位职责: 1、参与保险项目开发、实施、维护,负责与客户沟通及问题解决。 2、参与项目的的数据库开发,如存储过程、函数。 3、负责数据库设计与plsql开发 4、负责数据库sql优化、统计、分析 任职要求: 1、2年及以上ETL相关工作经验 2、精通Oracle数据库,有良好的sql开发技能,能熟练编写Oracle数据库中存储过程、函数。 3、熟悉Linux常用系统管理及文件管理命令,熟悉shell脚本编写。 4、熟练使用kettle工具进行数据开发。 5、具有一定的问题分析及决绝方案设计能力以及一定的文档编写能力。 6、熟悉Java开发语言优先,熟悉保险业务优先
-
1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、有人寿保险相关项目经验; 3、掌握数据库存储过程开发经验 4、有人身险EAST实施经验优先。
-
1、熟悉使用Informatica、Hadoop等ETL开发工具; 2、掌握数据库存储过程开发经验; 3、有人寿保险相关项目经验优先: 4、有人身险反洗钱相关实施经验优先; 5、需要具备优化和搭建大数据处理系统能力,数据仓库相关经验优先;具有海量数据处理、互联网从业背景者优先; 6、善于沟通、 认真踏实、思维灵活。 本科以上学历,有3年以上数据相关开发经验。
-
职责描述: 1.参与数据仓库架构与数据开发,设计ETL流程、日志等数据 2.负毒数据平台相关数据工作,如研发、质量、保障与实施落地 3.参与实时数据流的数据处理、查询统计和分析预测等计算 4.日常数据监控以及数据预警,异常数据解读挖掘,并与业务沟通解决方案 5.管理数据类项目并如期实施交付 任职要求: 1.从事数据仓库领域工作1-3年或3年以上,实际参与模型设计及ETL开发经验,能独立完成相关的开发工作 2.做过2年以上bi项目经验 3.sql 精通 4. etl工具精通至少1种(ssis) 加分项: 1.会dax优先 2.精通ADF优先
-
【公司严格审查学历及工作履历,请确保您的简历与实际情况相符】 岗位职责: 1、从事保险业务数据平台中的ETL、数据分析、数据处理、前&后端等相关功能开发及运维; 2、负责所属模块的的需求分析、详细设计、代码开发、单元测试及运维文档编写等相关工作; 3、定期性能调优、优化调度性能及资源利用率,保证平台稳定高效; 职位要求: 1、本科学历学信网可查且毕业满3年及以上,有保险行业系统开发经验(Java/ETL/数据开发(BI、数仓、数据挖掘)等皆可); 2、有较强的SQL、HiveSQL能力,熟悉oracle、mysql、OceanBase,具备关系型、分布式数据库设计和开发经验; 3、熟知数据仓库设计理念、设计方法,能够熟练使用ETL工具Kettle,能够进行其ETL优化及解决相关技术问题; 4、精通大数据开发及运维相关技术:CDH、Kafka、Storm、hdfs、Hive等 ; 5、掌握Java编程语言,熟悉Java API开发; 6、熟悉Hadoop生态系统组件(如HDFS、YARN、MapReduce、Hive、HBase、Spark、Kafka等)的部署和管理,具备高效的问题诊断和解决能力; 7、熟悉SpringMVC、Springboot、CXF、Spring、MyBatis等开源框架、熟悉Kafka、Redis等中间件,有大型分布式、高并发项目设计开发经验; 8、熟练掌握Redis等缓存数据库的使用,掌握高并发数据写入的数据库结构设计与方法; 9、熟练使用Nginx,熟悉Linux操作系统,熟练使用Shell、Python等脚本语言; 10、熟练使用BI工具SmartBI,能够利用其生成报表、仪表盘等数据可视化内容; 11、了解JSP、JavaScript、Bootstrap、EasyUI等前端开发技术及框架; 12、熟悉保险核心业务、以及有ECIF、CCH、CEM、CRM、CDH等保险业务系统开发及运维工作经验者优先; 13、工作认真负责、积极主动、有良好的沟通能力及团队合作精神; 14、合适者待遇可谈。
-
【职位描述】 1. 海量数据的ETL开发,抽取成各种数据需求; 2. 参与数据仓库架构的设计及开发 ; 3. 参与数据仓库ETL流程优化及解决ETL相关技术问题; 4、熟悉主流数据库技术,如oracle、Sql server、PostgeSQL等; 4、精通etl架构,有一定的etl开发经验,了解日常作业的部署和调度; 5、会数据etl开发工具,如Datastage,Congos,Kettle等。 【职位要求】 1、具有本科及以上学历,从事2年以上BI项目开发,具有企业级数据仓库开发经验; 2、有etl实际开发经验,掌握存储过程、Informatica Powercenter、IBM DataStage、kettle等至少其中一项ETL开发技术; 3、熟悉数据仓库逻辑架构,熟悉ETL流程、元数据管理、数据质量监控等数据仓库主要环节; 4、精通Oracle 、DB2、sqlserver 等数据库,具有2年以上应用开发经验; 5、深入理解SQL调优,具备处理大数据量、复杂业务逻辑的经验; 6、对开源技术非常感兴趣并具有一定的研究能力; 7、高度责任感和敬业精神,有良好的团队协作意识和沟通能力; 8、具有金融、电商或互联网公司海量数据处理工作经验者优先。 【面试流程】 初面(技术+HR)——复试(部门经理)——背调(学历认证、工作经历认证)——入职 【工作时间】 1、09:00——18:00 2、周末双休 3、法定节假日带薪休假 【薪酬福利】 1、工资结构:基本+岗位+绩效 2、六险一金+周末双休+法定节带薪休假(并发放过节福利)+每年额外带薪年假(5-15天)+婚假+产假等 ①六险(养老保险,医疗保险,失业保险,工伤保险,生育保险,商业险) ②一金(住房公积金) 3、过节福利:现金奖励or实物发放 4、生日福利:百元礼物 5、每年组织国内旅游,每年免费千元体检 【工作环境】 高档办公环境,全天室内办公,每人拥有独立的工作区和电脑,另配冰箱、微波炉等设施; 工作氛围单纯舒适,同事之间相处和睦。
-
岗位职责: 1、负责数据仓库或者数据湖ETL设计开发; 2、负责与业务部门数据需求的沟通与确认。 岗位要求: 1、3-5年数据仓库、数据平台或者数据湖的ETL开发工作经验,具有ETL业务逻辑设计经验优先; 2、具有 AWS EMR、AWS Redshift、AWS Glue等亚马逊云上数据服务开发经验; 3、有AXURE开发经验 4、熟练掌握 Hive 和 Spark 大数据计算框架,具有HiveQL(HQL)或SparkSQL相关ETL和数据处理的开发经验; 5、具有Azure开发经验 6、熟练掌握Python,shell,JAVA等代码开发 7、清晰的逻辑思维能力、良好的沟通能力和独立的ETL过程设计能力; 8、工作认真仔细,积极主动,具备较强的自主学习、自我总结能力。