-
一、岗位职责: 1、参与云数据平台规划,分析业务问题,数据模型设计; 2、负责核心数据处理程序开发、部署调优、验收,及交付材料编写; 二、任职要求: 1、熟悉Linux/Unix系统和丰富的Java开发经验;熟练使用Spring boot,了解Spring底层结构,具备从事分布式相关系统的开发 2、精通大数据仓储技术栈有(Spark、Hive、HBase、redis、kafka、Hadoop等)相关开发经验 3、精通SQL,熟悉常用主流数据库,包括MySQL、PostgreSQL、Redis、MongoDB、Oracle,并精通其中任意一种,具有SQL性能优化经验 4、掌握主流ETL开发工具(Sqoop、Kettle) 5、熟悉至少一种实时计算引擎 Storm, Spark Streaming, Flink
-
高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
-
必要条件 学信网可查*****本科(20年之前毕业) 任职要求: 1、至少2年以上数据库ETL开发工作经验; 2、有数据仓库或大数据平台建设项目经验,了解hadoop或MPP的基本原理; 3、有扎实的SQL功底,有SQL查询调优的经验; 4、熟练使用至少一种关系型数据库,如oracle,mysql,有使用GreenPlum和clickhouse的经验优先; 5、有常用ETL工具使用经验,如Kettle,有DataX的使用经验优先; 6、对python有过应用经验的优先; 7、有基金或金融行业项目经验的优先。
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
岗位职责: 1.负责数据库BI的开发工作,主要为后台数据库结构开发以及数据接口开发; 2.根据数据分析需求,进行报表设计、可视化开发; 3.负责BI报表平台的日常维护 报表问题修复,系统优化,数据处理和文档维护等; 4.负责BI后台数据治理、同步维护; 5.负责BI工具的功能研究和其他集成应用。 岗位要求: 1.计算机类相关专业本科以上学历(优秀者学历与专业可适当放宽); 2.4年以上数据 BI开发工作经验; 3.参与过大中型数据仓库ETL、BI项目的设计与开发优先,具备数据仓库架构设计经验和能力,有独立进行数据仓库设计经验; 4.熟悉SQL编程;熟悉ETL产品、如kettle、SSIS等;熟悉BI工具,如Tableau、帆软等,熟悉BI系统之间集成; 5.能够独立且熟练完成BI项目的分析设计和开发工作(包括ETL抽取和前端多维展现); 6.具备强烈的工作责任感和事业心,良好的团队合作精神和沟通能力。
-
任职要求: 1、本科,计算机科学、信息管理、数据科学等专业; 2、熟悉数据库管理系统(DBMS)、数据仓库、ETL工具(kettle)等数据管理和数据处理技术; 3、具有一定的数据分析能力,能够使用数据分析工具和编程语言(如SQL、Python、R等)进行数据处理和分析; 4、了解数据治理的基本原则和方法,熟悉数据治理的关键概念和流程; 5、具备良好的沟通和协作能力,问题解决能力; 6、具备持续学习的意愿和能力,能够跟进和适应不断发展的数据治理技术和***实践。 岗位职责: 1、数据采集、清洗和转换; 2、协助数据项目经理,编写数据治理方案; 3、数据分析任务,如基本统计分析、数据关联分析等; 4、使用数据分析工具和编程语言,如SQL、Python或R,编写脚本或查询来提取和处理数据,撰写分析报告; 5、监控和维护数据质量,识别和纠正数据质量问题; 6、收集和维护数据的元数据信息,包括数据来源、定义、格式、用途等。 薪酬福利: 1、薪酬:基本工资、绩效工资、年终奖金、餐费补贴、通讯费补助等; 2、福利:年度季度嘉奖、六险一金、带薪年假、旅游拓展等丰富企业文化活动; 3、假期规定:公司提供按国家标准的有薪假期,法定节假日、年休假、婚假、产假等假期; 4、培训:公司重视员工个人发展,不定期为员工组织内部各项专业技能培训,公费外送培训。 5、员工活动:不定期举行郊游、文娱活动、公司旅游、公司年会等活动; 6、节日慰问:公司在端午节、中秋节、春节等传统重大节日为员工发放节日礼品; 7、办公环境:优雅、干净、整洁的办公环境,轻松、愉快的工作氛围。 8、其他:周末双休,7.5小时/天工作制,食堂、免费班车等。
-
一、岗位职责: 1、参与通信运营商B域及O域数据平台规划; 2、参与数仓数据架构; 3、参与数据模型设计 ; 4、负责核心数据处理程序设计、开发,文档编写; 二、任职资格要求: 1、精通大数据仓储技术栈并有(Spark、Hive、Flink、HBase、Hdfs、kafka等)相关开发经验,掌握主流ETL开发工具(Sqoop、Kettle); 2、熟悉Linux/Unix、python/java/shell,熟悉Node.js及后端服务架构,熟练掌握大型互联网服务端开发与运维技术,常用中间件,掌握分布式架构设计; 3、熟悉hive sql/spark sql,sql集群开发和性能调优,熟悉常用的MySQL、MongoDB等数据库及数据库原理,对Redis、ElasticSearch有所了解更佳,对HTTP、gRPC、消息队列了解; 4、 具有SQL性能优化经验;熟悉至少一种实时计算引擎 Storm, Spark Streaming, Flink; 5、具备扎实的编程基础、丰富的数据处理和分析经验、良好的系统设计和优化能力,以及对新技术的敏锐洞察力。 6、具有高度责任感、主动性、团队合作和敬业精神;良好的学习能力,沟通能力; 7、熟悉通信运营商行业B域和O域数据标签的优先; 8、在通信运营商有处理底层数据标签经验的优先;
-
岗位说明: 1. 参与甲方(银行或保险公司)的数据ETL相关工作; 2. 随时可进场; 3. 实习期至少到25年3月份; 4. 实习期间表现优秀者可转正; 5. 本科生120元/天,研究生150元/天。 岗位职责: 1. 参与银行/保险数据仓库、数据集市等数据应用系统的架构设计; 2. 参与各项目数据治理方案设计,数据治理实施落地; 3. 参与ETL过程设计和ETL开发; 4. 参与项目相关技术文档的编写和维护; 岗位要求: 1. ***本科或以上学历,计算机专业优先; 2. 熟悉主流数据库(Oracle、SQL Server、MySQL)等主流数据库; 3. 熟练掌握SQL语言,能熟练运用SQL开发存储过程和函数等; 4. 熟悉Kettle、Sqoop、Flink、Streamsets等相关ETL工具更佳; 5. 掌握ETL设计流程基础知识,了解数据仓库原理和架构; 5. 掌握常用的Linux命令,能进行Shell脚本编写更佳; 6. 具备良好的表达和沟通能力,较强的抗压能力,责任心强,思路清晰。
-
岗位职责: 一、沟通需求: 驻场或远程与各地公安经侦、刑侦沟通,从资金层面为案件提供情报导侦,协助资金证据固定、人员落地,配合审计出具报告,打击jingji Fanzui。 二、数据分析: 分析梳理涉案主体/账户的交易行为特征、关联关系、角色分工、犯罪链条。使用SQL 脚本根据账户资金交易特征、交易对手特征,结合口供、后台层级关系、已掌握的人员关系、股权穿透等判断账户属性,根据资金流水中的ip/mac等信息划分团伙,挖掘嫌疑人生活消费规律、活动轨迹,进行账户扩线,挖掘更多可疑涉案账户,协助警方确定窝点位置及人员位置实施落地打击。使用到kettle/SQL/Excel/VBA/python等工具合并、清洗、补全、规范资金数据并导入MySQL/PostgreSQL数据库。 1、指标分析:针对涉案主体、交易金额、交易时间、IP/MAC地址等不同维度构造度量指标,从而分析资金交易行为特征/规律,发现可疑人员、可疑账户、团伙关系。 2、时间序列分析:将多个可疑账户的交易记录绘制成时序图,分析发现涉案资金的交易链路或交易环路,识别涉案人员/公司之间的资金流转行为、流转习惯。 3、网络关系分析:由后台推荐数据或资金交易数据绘制生成网络关系图,研判网络传销案件的推荐层级/资金周转的账户角色,发现人员关联,梳理分工。 4、标签分析:根据前期的指标信息,建立包含可疑交易特征、账户角色、涉案主体角色等的标签库,方便后期多维度综合分析。 5、文本分析:对交易数据中的备注/交易说明字段进行文本处理和统计汇总,分析资金用途,发现可疑账户以及上游犯罪信息。 6、比对分析:通过抽样比对或编写脚本按条件批量比对资金流水数据和后台充值提现记录,验证资金流转事实,研判作案工具账户。 追踪资金流向,找出犯罪资金链路,使用 i2/xmind 等工具可视化资金流向。汇报阶段性工作成果,撰写资金穿透分析报 告。 三、结果交付: 前期线索阶段出具待调单列表调取数据,中期立案抓捕阶段撰写后台/资金分析导侦报告,配合客户出具立案打击/冻结材料,后期固定证据阶段交接前期分析结果、配合电子数据鉴定和司法会计鉴定。 四、知识积累: 收集常用的工作脚本整理成工具库,绘制Xmind图记录不同类罪的账户交易特征、分析思路、工作框架。 五、项目管理: 推进项目进度解决项目中出现的问题,确保项目能保质保量完成。及时发现项目隐形问题,尽早制定相对应的解决方案。 六、团队管理: 培训和指导团队成员。评估团队成员的工作表现,对不足的方面及时指导。 七、风险管理: 识别和评估项目中的风险。制定缓解策略和应对计划。 八、决策: 紧急复杂情况下做出关键决策,带领团队完成项目。 九、法币、虚拟币案件分析,黑灰产业前沿技术的发掘、跟踪和研究。 任职资格 1、2年以上法币、虚拟币分析经验,并有多个成功案例。 2、有链上追踪经验。【硬性要求】 3、5人以上团队管理经验。 4、精通SQL、Excel、Python等技术对数据进行清洗、分析。 5、熟悉区块链、交易所、智能合约相关知 识。 6、熟悉网络Fanzui、黑灰产等相关产业运作方式,有协助过公安通过法币、虚拟币进行资金追踪实战经验。 7、逻辑清晰,具有敏锐的洞察力和分析能力,善于对热点问题进行探究。 8、有良好的沟通能力和团队组织能力及高度的责任心,具备较强的风险防范及控制能力。 9、精通主流数据分析工具,具备撰写数据分析报告的能力 10、有平台调证资源优先
-
目前招聘画像: 1.资深数据爬取经验 2.数据清洗,数据处理(体量在1 T以上) 3.有算法背景,数据挖掘经验 数据处理 了解NLP算法 岗位职责: 1. 负责研究院数据采集工作,包括文本、图片、视频等多种类型数据,持续更新和扩大数据集规模; 2. 根据项目需求,快速进行数据抓取代码和清洗代码开发; 3. 协助研究团队对数据进行清洗、过滤、存储等处理工作; 4. 对数据平台存储的海量数据进行管理和维护。 岗位要求: 1. 985 211优先考虑,计算机相关专业,熟悉计算机基础知识,具有3年及以上爬虫与反爬工作经验; 2. 熟悉linux平台开发,精通Python,熟悉各种爬虫框架和工具,掌握验证码识别技术、js逆向等常用反爬技能; 3. 熟悉大数据处理的流程以及熟练使用相关的工具,具备使用、维护、调优的能力,包括但不限于Hadoop、Spark、Kafka、ELK、Flink、ClickHouse、kettle等; 4. 熟悉Socket网络编程,多线程/进程/异步code的开发,掌握TCP/IP,UDP及常见变种网络通信协议,熟练使用工具对网络协议进行报文分析和调试,熟练使用正则表达式,xpath等匹配方法,能够快速从原始数据中提取有用信息; 5. 良好的沟通能力,抗压能力强,能独立解决开发过程遇到的各类问题; 6. 有大规模项目爬取工作经验优先,有大数据处理工作经验优先。
-
岗位职责: 1、参与保险项目开发、实施、维护,负责与客户沟通及问题解决。 2、参与项目的的数据库开发,如存储过程、函数。 3、负责数据库设计与plsql开发 4、负责数据库sql优化、统计、分析 任职要求: 1、2年及以上ETL相关工作经验 2、精通Oracle数据库,有良好的sql开发技能,能熟练编写Oracle数据库中存储过程、函数。 3、熟悉Linux常用系统管理及文件管理命令,熟悉shell脚本编写。 4、熟练使用kettle工具进行数据开发。 5、具有一定的问题分析及决绝方案设计能力以及一定的文档编写能力。 6、熟悉Java开发语言优先,熟悉保险业务优先。
-
岗位职责: 1、参与保险项目开发、实施、维护,负责与客户沟通及问题解决。 2、参与项目的的数据库开发,如存储过程、函数。 3、负责数据库设计与plsql开发 4、负责数据库sql优化、统计、分析 任职要求: 1、2年及以上ETL相关工作经验 2、精通Oracle数据库,有良好的sql开发技能,能熟练编写Oracle数据库中存储过程、函数。 3、熟悉Linux常用系统管理及文件管理命令,熟悉shell脚本编写。 4、熟练使用kettle工具进行数据开发。 5、具有一定的问题分析及决绝方案设计能力以及一定的文档编写能力。 6、熟悉Java开发语言优先,熟悉保险业务优先
-
岗位职责 1.制定和维护数据治理框架,包括数据质量、数据安全和数据合规性。 2.与业务部门合作,确保数据治理政策与业务需求相符合。 3.监控数据治理政策的执行情况,定期进行审计和评估。 4.管理数据分类和数据生命周期。 5.协调数据治理相关的项目和倡议。 6.为数据治理相关的技术和工具提供支持和指导。 7.确保数据治理流程符合相关法律法规和行业标准。 任职要求 1.计算机类相关专业本科以上学历(优秀者学历与专业适当放宽)。 2.强大的分析和解决问题的能力。 3.优秀的沟通和人际交往能力。 4.熟悉SQL、数据仓库和ETL工具。 5.熟悉Hadoop、Spark和Flink等分布式框架使用与运维。 6.熟悉java、python、C等其中至少一种开发语言。 7.有使用数据治理工具,ETL工具(如kettle)的经验者优先。
-
岗位职责: 1. 负责数据仓库的设计与开发、存储过程编写、ETL过程的设计与开发; 2. 负责各业务系统数据源数据探查调研,准确性完整性验证; 3. 参与公司BI项目中ETL流程优化及解决ETL相关技术问题; 4. 参与数据仓库相关应用系统需求分析、开发、测试; 任职要求: 1. 熟悉ETL数据加工流程; 2. 熟悉主流数据库(oracle,mysql,sqlserver)、熟悉SQL、存储过程及优化方法; 3. 有linux基础,能看懂并编写简单shell脚本; 4. 熟悉主流ETL工具,例如kettle,datax等,熟悉对数据同步工具,例如:Flink熟悉使用; 5. 熟悉任何一种主流的编程语言(JAVA、C、C++、PYTHON、javascript、C#).
-
【公司严格审查学历及工作履历,请确保您的简历与实际情况相符】 岗位职责: 1、从事保险业务数据平台中的ETL、数据分析、数据处理、前&后端等相关功能开发及运维; 2、负责所属模块的的需求分析、详细设计、代码开发、单元测试及运维文档编写等相关工作; 3、定期性能调优、优化调度性能及资源利用率,保证平台稳定高效; 职位要求: 1、本科学历学信网可查且毕业满3年及以上,有保险行业系统开发经验(Java/ETL/数据开发(BI、数仓、数据挖掘)等皆可); 2、有较强的SQL、HiveSQL能力,熟悉oracle、mysql、OceanBase,具备关系型、分布式数据库设计和开发经验; 3、熟知数据仓库设计理念、设计方法,能够熟练使用ETL工具Kettle,能够进行其ETL优化及解决相关技术问题; 4、精通大数据开发及运维相关技术:CDH、Kafka、Storm、hdfs、Hive等 ; 5、掌握Java编程语言,熟悉Java API开发; 6、熟悉Hadoop生态系统组件(如HDFS、YARN、MapReduce、Hive、HBase、Spark、Kafka等)的部署和管理,具备高效的问题诊断和解决能力; 7、熟悉SpringMVC、Springboot、CXF、Spring、MyBatis等开源框架、熟悉Kafka、Redis等中间件,有大型分布式、高并发项目设计开发经验; 8、熟练掌握Redis等缓存数据库的使用,掌握高并发数据写入的数据库结构设计与方法; 9、熟练使用Nginx,熟悉Linux操作系统,熟练使用Shell、Python等脚本语言; 10、熟练使用BI工具SmartBI,能够利用其生成报表、仪表盘等数据可视化内容; 11、了解JSP、JavaScript、Bootstrap、EasyUI等前端开发技术及框架; 12、熟悉保险核心业务、以及有ECIF、CCH、CEM、CRM、CDH等保险业务系统开发及运维工作经验者优先; 13、工作认真负责、积极主动、有良好的沟通能力及团队合作精神; 14、合适者待遇可谈。