-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
-
职位职责: 1、参与数据中台的汇聚和采集ETL详细设计和开发工作; 2、负责数据平台相关数据管理工作,如研发规范、质量规范、保障规范的制定与推动实施落地; 3、负责数据分析需求的模型开发和实现; 4、负责来自业务团队数据方面的研发需求。 职位要求: 1、5年以上大数据开发经验,精通SQL语言,具备存储过程开发能力,能熟练进行SQL查询优化; 2、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想,了解数据仓库、CDP者优先; 3、熟悉Hadoop、Spark、Flink、Sqoop、DataX、Hive、Flume、Kafka等相关技术; 4、熟练Scala、Python、Java中至少一种语言; 5、具有良好服务意识,抗压力和沟通能力强,有过ToB行业服务经验优先。
-
职位职责: 1、理解业务场景,基于业务知识及合规治理需要,设计不同业务场景下的数据分类分级标准及识别规则; 2、深入参与数据识别能力建设,与算法工程团队合作,准备高质量评估样本,评估算法模型的实际识别效果,保障识别结果高质量交付; 3、搭建数据安全治理看板,完成系统化指标监控及归因分析,从数据结果层面展示隐私安全治理水位; 4、与产品和研发团队合作,探索行业领先的隐私数据识别和治理方案。 职位要求: 1、本科或以上学历,计算机、数学、统计、管理信息系统、运筹学等相关专业优先; 2、熟悉SQL或其他数据分析脚本语言,了解Spark、Hive等大数据处理工具或框架,3年以上数据分析相关经验优先; 3、具备良好的隐私安全系统化建设思路,了解数据收集、存储、使用、分发场景中的典型风险及常见治理策略; 4、逻辑清晰、执行力强、具备良好的学习能力和自驱力,跨部门协作能力优秀。
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
-
岗位职责: 1.负责腾讯音乐集团相关产品推荐算法的设计实现与优化; 2.负责完善现有推荐系统的基础算法及并行计算框架; 3.负责音乐平台业务的基于用户/音乐特性的数据挖掘及推荐策略设计实现; 4.负责能够根据业务数据变化不断设计并调整算法策略来提升算法质量,并最终提升用户体验。 岗位要求: 1.硕士及以上学历; 2.计算机,统计,信息,数学等相关专业毕业优先; 3.扎实可靠的编程能力,精通C/C++/GO至少一门编程语言; 4.熟悉业内推荐算法及数据挖掘领域的技术热点和进展,对互联网在线音乐的推荐系统架构设计有深入了解; 5.了解Hadoop/Spark生态相关技术优先; 6.具备规模分布式数据存储与计算开发经验者优先; 7.沟通能力佳,表达能力出众者,音乐爱好者优先。
-
岗位职责: 1、负责账务、线上业务运营相关服务的设计和开发; 2、深入分析业务需求,撰写技术方案和系统设计; 3、完成详细设计和编码的任务,确保项目的进度和质量; 4、能快速分析解决复杂的技术问题; 任职要求: 1、本科及以上学历,专业基础扎实,计算机及相关专业优先; 2、为人踏实,协作能力强,能接受一定的工作压力; 3、具有较强的自我驱动能力和自学能力,沟通能力强; 4、Java Web开发3年以上经验,熟悉面向对象开发模式,了解常用的设计模式; 5、精通Java面向对象开发模式,了解常用的设计模式、熟练使用J2EE开源框架如Spring/SpringBoot/MyBatis-plus/Maven等,并了解其架构和实现原理; 6、精通Java集合包和并发包。或者精通Guava等第三方集合包; 7、熟悉MySQL数据库,能独立完成MySQL的数据库设计、性能调优等; 8、熟悉Kafka、RabbitMQ、Redis、HBase等常用MQ和非关系型数据库; 9、有Hadoop、Hive、Spark、Flink等大数据工具使用经验者优先; 10、有支付、账务系统、清结算、RPA、电子券、BI及数据可视化项目或行业工作经验优先。
-
1.信贷风控场景下,贷中经营全流程模型和算法开发,包括但不限于贷中B卡、营销响应、流失预警、offer额度优化、定价敏感度等 2.深入理解信贷业务贷中经营需求和痛点,灵活应用不同算法定制模型,实现风险控制与业务收益的平衡 3.跟进业界前沿,创新探索用于风险/运营管理的算法,并推进落地,有效提升业务指标 任职要求: 1.3年及以上相关工作经验,经济、金融、数学、统计、计算机等相关专业本科以上学历; 2.熟悉常用机器学习算法,如FM、DeepFM、xGboost、DIN、DNN等,扎实的编程和数学基础; 3.熟练掌握常用的编程语言,精通Python、scala编程中的一种,掌握海量数据处理技术,包括但不限于Hadoop/Hive/Spark; 4.良好的团队合作精神和创新精神,乐观、自省,优秀的沟通能力和抗压能力; 5.有完整贷中经营业务应用经验者优先。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;
-
岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
-
岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。
-
风控专家(汽车金融方向) (MJ000827)
[北京·朝阳区] 19:44发布35k-55k·15薪 经验5-10年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1.独立完成建模方案设计、模型开发及部署,运用各类算法开发包括不局限于反欺诈、信用评估、额度模型、行为评分、催收评分等风险模型及营销响应、流失预警等营销模型。并对现有模型进行优化完善;根据客户需求,独立带领项目成员进行咨询项目的实施,包括方案设计、项目计划安排、实施过程管理、项目质量把控、报告撰写及交付汇报; 2.充分了解客户业务端审批流程及风险表现,结合用户特征,制定或优化贷前、贷中及贷后风控策略;为客户提供用户分层筛选、审批自动化率提升、差异化营销手段、渠道管理等策略建议; 3.配合商务进行客户需求沟通、方案讲解及咨询支持,对客户提出的业务痛点提供有效的解决方案及量化的决策建议;统筹分析并定位信贷机构风险/运营管理中出现的问题,结合行业动态趋势、监管力度,把握市场机遇,提供有效落地的解决方案,促成项目开展和有效落地; 4.不断学习/探索/优化算法,通过量化算法、业务经验等,基于内外部数据,统筹设计、开发有效用于风险/运营管理的创新数据及模型产品,并推进其实施落地;基于自身对汽车金融行业与风控、营销特征的理解,设计新模式/新解决方案,并尝试推进实施落地。 岗位要求: 1.硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2.5年以上银行、持牌消金、头部互金、金融科技公司模型及策略相关工作经验,有汽车金融相关经验/金融科技公司工作相关经验/项目管理经验优先; 3.至少能熟练使用Python/Spark/R其中一种分析及建模工具,数据挖掘及建模经验丰富,能够有效利用LR/树型机器学习/神经网络等深度学习算法构建特征与模型; 4.对零售信贷市场、信贷产品形态有深刻的认知;对全生命周期风控管理流程有深刻的理解,并掌握各环节的风控要点及风控策略制定逻辑; 5.具备独立思考的能力,逻辑严谨,对数据敏感,善于发现,探索并解决问题,自我驱动力强;与时俱进,对不断更新迭代的算法(如GPT)持续学习和应用; 6.工作主动性强,踏实、勤奋、细心,愿意并乐于接受新尝试、新挑战,探索创新主动性强; -
数据研发岗: 岗位职责: 1、负责业务需求承接和相关数据及报表研发工作; 2、承接业务需求,按照业务要求,按质按量完成需求交付,沉淀数据资产; 3、可独立完成需求拆解,数据模型设计,数据研发和开发及测试工作。 岗位要求: 1、计算机相关专业本科以上学历。 2、1年以上工作经验。 3、熟悉主流分布式计算工具,hadoop, spark, hbase等,精通SQL开发,熟悉MapReduce原理; 4、有一定的数据仓库开发经验,对各类数据模型设计方法有比较全面和深入的了解。 5、掌握java/python编程中的至少一种; 6、具备较好的数据抽象能力和主观能动性,能够从实际问题出发,提出数据解决方案并跟进方案落地;
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;