-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
职位职责: 1、负责字节跳动国际支付的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责: 1、负责账务、线上业务运营相关服务的设计和开发; 2、深入分析业务需求,撰写技术方案和系统设计; 3、完成详细设计和编码的任务,确保项目的进度和质量; 4、能快速分析解决复杂的技术问题; 任职要求: 1、本科及以上学历,专业基础扎实,计算机及相关专业优先; 2、为人踏实,协作能力强,能接受一定的工作压力; 3、具有较强的自我驱动能力和自学能力,沟通能力强; 4、Java Web开发3年以上经验,熟悉面向对象开发模式,了解常用的设计模式; 5、精通Java面向对象开发模式,了解常用的设计模式、熟练使用J2EE开源框架如Spring/SpringBoot/MyBatis-plus/Maven等,并了解其架构和实现原理; 6、精通Java集合包和并发包。或者精通Guava等第三方集合包; 7、熟悉MySQL数据库,能独立完成MySQL的数据库设计、性能调优等; 8、熟悉Kafka、RabbitMQ、Redis、HBase等常用MQ和非关系型数据库; 9、有Hadoop、Hive、Spark、Flink等大数据工具使用经验者优先; 10、有支付、账务系统、清结算、RPA、电子券、BI及数据可视化项目或行业工作经验优先。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
岗位职责: 1. 独立完成建模方案设计、模型开发及部署,运用各类算法开发包括不局限于营销响应、流失预警等营销模型及反欺诈、信用评估、额度模型、行为评分、催收评分等风险模型,并对现有模型进行优化完善;根据客户需求,独立带领项目成员进行咨询项目的实施,包括方案设计、项目计划安排、实施过程管理、项目质量把控、报告撰写及交付汇报; 2. 配合商务进行客户需求沟通、方案讲解及咨询支持,对客户提出的业务痛点提供有效的解决方案及量化的决策建议;统筹分析并定位信贷机构风险/运营管理中出现的问题,结合行业动态趋势、监管力度,把握市场机遇,提供有效落地的解决方案,促成项目开展和有效落地; 3. 充分了解客户业务端审批流程及风险表现,结合用户特征,制定或优化贷前、贷中及贷后风控策略;为客户提供用户分层筛选、差异化营销手段等策略建议;负责客户端金融信贷产品风控/运营体系的规划与建设,制定风险/运营政策框架,设计、迭代贴合业务实际的风控/运营策略,实现风险控制与业务收益的平衡; 4. 不断学习/探索/优化算法,通过量化算法、业务经验等,基于内外部数据,统筹设计、开发有效用于风险/运营管理的创新数据及模型产品,并推进其实施落地; 岗位要求: 1. 硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 5年以上银行、持牌消金、头部互金、金融科技公司模型及策略相关工作经验,有项目管理经验优先; 3. 至少能熟练使用Python/Spark/R其中一种分析及建模工具,数据挖掘及建模经验丰富,能够有效利用LR/树型机器学习/神经网络等深度学习算法构建特征与模型; 4. 对零售信贷市场、信贷产品形态有深刻的认知;对全生命周期风控管理流程有深刻的理解,并掌握各环节的风控要点及风控策略制定逻辑;与时俱进,对不断更新迭代的算法(如GPT)持续学习和应用; 5. 具备独立思考的能力,逻辑严谨,对数据敏感,善于发现. 探索并解决问题,自我驱动力强; 6. 具备较强的抗压能力,踏实、勤奋、细心,愿意并乐于接受新尝试、新挑战,探索创新主动性强;
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;
-
主要职责: 1. 负责媒体业务的大数据平台的建设工作,包括埋点、收集、加工、应用全流程的建设和迭代工作; 2. 负责数仓建设,制定数据规范,完善数据治理,提升数据产出效率和质量; 3. 对接业务方,为业务服务提供高效率、高可用的数据服务/数据产品; 4. 培养团队成员,组织技术分享,促进团队成员进步。 岗位要求 1. 计算机相关专业本科及以上学历,5年以上大数据方向工作经验; 2. 熟悉数据仓库建模,有实际的实时/离线数仓建模经验,具备一定的Java研发能力; 3. 深入了解大数据技术栈,熟悉spark、flink、hive等技术; 4. 熟悉springboot及相关技术; 5. 良好的沟通能力,团队意识以及跨团队协作能力; 6. 有团队管理经验优先。
-
技术支持工程师-长沙 (MJ000801)
[长沙·岳麓区] 13:35发布13k-20k 经验3-5年 / 本科工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人【岗位1】 岗位职责 1、负责支付宝开放产品/行业方案的技术支持、技术咨询等工作; 2、对一线技术支持升级的疑难问题进行兜底,对客户问题的最终解决负责,提高客户接入效率; 3、从客户咨询数据中敏锐地发现优化机会,并进行深入分析,为产品优化提供数据支撑和行动建议; 4、不断提升问题解决效率,包括但不限于通过智能服务、文档、排查工具等方式,提高客户问题自助解决和排查效率; 岗位要求 1、计算机相关专业本科及以上学历,2年以上Java/小程序研发或者技术支持经验; 2、Java基础扎实,熟悉Java虚拟机原理、Java高级特性和类库、Java网络与服务器编程、Java多线程编程以及常见开源产品,同时具备一定前端技术背景优先考虑; 3、有良好的信息总结归纳能力,及技术文档撰写能力; 4、责任心强,具备客户服务意识,善于团队协作,有良好的思维逻辑性、语言表达能力; 5、业内各大开放平台从事研发支持工作背或有较长实际集成经验优先考虑; 【岗位2】 我们团队主要负责蚂蚁国际钱包科技售后技术支持服务,在这里你可以学习到最前沿的电子支付技术架构以及产品。 我们主要业务方向是将国内成熟的移动支付的技术服务到海外不同的国家和地区,为当地用户带来移动支付的便利。 包括东南亚 印尼Dana, 马来TNGD,菲律宾GCash,韩国Kakaopav. 印度Paytm,南非Vodapay 岗位职责 1、负责对蚂蚁金服国际的本地合作伙伴提供微服务的售后支持,及平台组件的相关咨询支持服务 2、带领团队负责对蚂蚁金服国际的本地合作伙伴提供技术赋能后的技术支持咨询服务和合作伙伴的关系管理; 3、能够带领团队建立紧急事件响应体系及时响应和高效处理本地合作伙伴的紧急重要业务事件,确保本地合作伙伴关键业务系统稳定 健康的运行在蚂蚁技术平台上; 4、在通过和本地合作伙伴的工作中,可以捕捉,识别对合作伙伴重要的的技术产品资源和流程需求,协调蚂蚁金服内部相关团队有 效支持和赋能本地合作伙伴; 5、能够通过远程服务的方式,定位分析技术服务请求,快速解决问题,并提供让本地合作伙伴 信服的技术支持服务和服务体验。 岗位要求 1.掌握Linux操作系统的配置,管理及优化,能够独立排查及解决系统层的各类问题;熟悉容器的使用以及运维 2.了解Hadoop/HBase/Hive/Spark/Katka/Zookeeper/ELK等开源项目的安装与调试,升级扩容和优化; 3. 至少熟练掌握 Java/Shel/SQL脚本语言; -
【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
-
职位描述 1. 负责平台B/C端场景下的风控策略、模型的开发和优化。 2. 负责指标异常监控体系建设,及时分析发现定位风险。 3. 与产品、运营紧密配合,评估业务风险情况,共同制定风险识别及治理方案。 任职要求 1. 本科及以上学历,数学、计算机等专业者优先,3年以上工作经验。 2. 熟练掌握数据分析、机器学习等方面的理论和应用。 3. 熟悉Python/Java/Scala等语言,熟悉SQL/Hive/Spark/Flink等工具。 4. 对数据敏感,优秀的分析和解决问题能力。
-
工作职责: 1、负责云端仿真业务核心模块的微服务体系研发、性能调优。 2、负责仿真业务大数据处理平台的研发、部署及维护。 3、负责在特定业务场景下进行技术选型。 4、负责业务研发过程中的技术攻关、对一些技术难题提出解决方案。 任职要求: 1、本科及以上计算机及相关专业;3年及以上工作经验。具有强烈的责任心、使命感、协作精神。 2、精通Java,熟悉Spring等相关技术栈。 3、精通数据库原理及相关性能调优技术,熟悉mybatis框架,熟悉postgresql、mysql等主流数据库。 4、精通常用微服务开发框架。 5、对实时、批处理大数据平台、数据中台等高并发及高可用分布式系统有相关研发或使用经验。 6、精通不同业务场景下的存储和计算技术选型,如高速缓存、分布式存储、实时计算等。 7、具有较强的学习能力、严谨的逻辑思维能力、工程实现能力,良好的编码规范。能够灵活高效地解决研发过程中的技术问题。 加分项: 1、互联网背景,微服务架构、大数据平台、数据中台等研发或使用经验。 2、拥有但不限于下述分布式技术框架的二次开发、部署或使用经验:SpringCloud、Dubbo、Flink、Storm、Spark、ES、Redis、HBase、MongoDB。 3、C++、Python语言相关经验。 4、K8S、Docker相关技术经验。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;