-
岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
-
职位职责: 1、负责火山引擎混合云存储产品的核心技术研发,为字节系内部业务以及火山引擎客户提供企业级存储产品服务; 2、深刻理解存储的核心能力,结合客户/行业混合云场景特定需求,通过领先的架构设计,在存储IO、数据库事务处理、查询分析、数据安全等核心领域持续技术创新和突破,并完成高质量的工程落地; 3、深刻理解各行各业IT架构,研发存储网关、一体化备份等产品,实现多云、云上云下数据互通,为客户IT提供极致灵活的基础底座。 职位要求: 1、熟悉存储系统或关系型数据库系统原理,具有中间件、HA、内核等相关研发工作经验; 2、熟悉C/C++/Rust/Go/Python中至少一种,有良好的算法和数据结构基础,对工程质量有较高的要求;对性能有极致的要求; 3、有存储、数据库、高并发系统、分布式系统等工作经验,并深入理解该领域技术; 4、熟悉对象存储、块存储、文件存储、MySQL、PolarDB、TiDB、OceanBase、CynosDB、Spanner等相关产品中的一种或多种者优先;有大规模系统研发和落地经验者优先; 5、对相关产品有私有化、多云、云上云下互通等混合云场景相关经验者优先。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: (1)负责兴业银行容器平台及中间件PaaS平台设计、研发、建设及维护工作; (2)负责容器云及中间件相关技术研究、技术标准制定、故障排查处置、安全加固等工作; (3)负责对使用容器云平台和接入各类PaaS服务系统提供技术支持。 岗位要求: (1)熟悉Docker容器技术,深度掌握相关技术原理细节; (2)深度掌握Kubernetes,深度了解各资源对象、技术组件运作原理,有实际项目经验; (3)对应用容器化设计、改造有深度认识以及实践经验; (4)熟悉Linux,熟悉Python、Shell中一种脚本语言,深度理解网络原理、存储原理、虚拟化、软件定义网络SDN等; (5)熟悉Tomcat、Kafka、RocketMQ、Redis、Nginx等中间件中一项或者多项,具有丰富的调优、高可用架构设计、故障排查、安全加固、监控经验。 符合以下一项或多项条件者优先: (1)曾负责或深度参与互联网或大中型金融企业的容器平台或中间件PaaS平台建设者; (2)具有2年以上容器平台或PaaS平台管理运维经验者; (3)对Docker、Kubernetes有源码级掌握者; (4)对云原生社区有贡献或者熟悉源码者; (5)具备Kubernetes Operator开发经验者; (6)具有Kubernetes相关认证者; (7)具备Redis、RocketMQ、Kafka、Zookeeper、Elastic等中间件二次开发经历者。 工作地点:上海、成都
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
-
职位描述 1、保障大数据相关计算和存储等核心系统的高可用,同时关注系统容量与稳定性; 2、深化系统可观测能力,提升监控智能化,帮助系统开发&团队快速定位故障; 3、推动提升服务的可靠性、可扩展性以及性能优化,保障系统SLA; 4、构建自动化运维方案,参与设计、实现能够保障线上大规模集群快速迭代和自动化管理的大数据运维平台; 5、提升大数据基础设施的资源利用率合理化,成本治理和分摊; 职位要求 1、本科以上学历, 计算机相关专业, 并有3年以上相关大数据SRE工作经验; 2、扎实的计算机软件基础知识; 了解 Linux 操作系统、存储、网络 IO 等相关原理; 3、熟悉一种或多种编程语言,例如 Go/Java/Shell; 4、具备系统化解决问题的能力,良好的沟通技巧和主人翁责任感; 5、熟悉Docker、K8S等容器化与云原生技术的架构与原理,对于常见的故障与问题有实践经验,具有分布式/大数据等系统经验优先(Hadoop/Spark/Flink 等);有腾讯云、aws等多云运维经验更佳! 6、具有算法思维,良好的数据结构和系统设计的能力者优先;
-
岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
-
职责描述: 1、负责行内基础应用类系统的研发建设和运维等; 2、负责行内基础应用需求的研发实施,保证研发工作的顺利进行,指导团队成员完成工作; 3、负责行内基础应用公共组件的研发、解决共性需求等; 4、负改善行内基础应用系统的技术架构及接入规范标准,参与日常代码评审,协调和解决基础应用研发及生产过程中出现的技术问题; 5、参与解决复杂技术问题,主导技术难题攻关,能提升基础应用系统高处理性能,保证系统的安全、稳定、快速运行; 6、团队内部其他交代日常工作事项。 任职要求: 1、本科及以上学历,计算机等相关专业,五年以上软件设计开发经验; 2、熟练掌握JAVA语言和面向对象设计开发,对分布式、多线程、异步处理、消息处理、并发等有较深入理解; 3、熟练使用设计模式,对常用的设计模式有深入的理解; 4、熟悉主流开源框架及微服务,如Spring、SpringMVC、SpringBoot、Mybatis、Dubbo等; 5、熟悉中间件,如Nginx、Redis、Zookeeper、MQ等,对技术选型作出合理的判断; 6、熟悉云原生、Docker、K8s、分布式数据库、对象存储等技术并有实际使用经验的优先; 7、有消息服务、统一身份认证、影像内容管理等基础应用平台研发经验的优先; 8、有技术标准、技术文档编写功底,能为系统开发设计提供建议方案和设计创新优先考虑; 9、有重要基础应用平台、大型分布式系统的设计和开发,具有服务化、高并发系统的架构设计和开发经验优先考虑; 10、良好的内外部沟通表达能力,有团队精神、有责任心、有较强的执行力,能完成团队项目目标; 11、技术视野开阔,学习能力好,对业界新技术敏感。
-
职位职责: 1、负责自动驾驶云产品售前工作,为自动驾驶行业客户提供产品整体方案宣讲、产品演示,为重点客户提供POC; 2、对接自动驾驶行业数据采集、标注、内容生成、仿真等合作伙伴,联合打造适配端到端自动驾驶开发的工具链整体方案; 3、负责产品文档编写,宣传对接,产品交付等运营支持工作; 4、负责火山引擎自动驾驶云的数据和计算管理产品规划工作,包括需求调研、版本规划、设计研发,商业策略设计,产品迭代改进。 职位要求: 1、了解汽车行业,具备该领域内ToB业务的实战经验,对行业客户的战略规划、业务发展以及产品技术演进有深刻洞见; 2、熟悉云计算产品,了解计算、存储、网络、安全、数据库、大数据、人工智能、容器、中间件等产品功能特点; 3、有结构化思维,具有抽象业务模型的能力; 4、良好的语言沟通与表达能力,自我驱动。
-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,参与稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,支持提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.熟悉spark/hive组件原理和应用,精通spark内核相关知识和技术,有较大规模RSS生产实施经验。 3.了解大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有AWS/GCP/阿里云等云平台使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
岗位职责 "1、负责公有云应用架构的规划及设计; 2、负责公有云SaaS服务的技术调研、选型及推广应用; 3、负责公有云IAM账号权限设计和分配管理; 4、负责公有云成本管理、资源管理、成本化化; 5、负责公有云各SaaS服务的监控、告警及日志等; 6、配合业务工程师完成业务上云、资源分配、账号分配等工作; 7、参与日常项目工作,负责业务上云前期规划、选型和配合工作;" 任职要求 "1、具有AWS、GCP、Azure等公有云应用经验(非简单EC2应用); 2、能熟练使用Terrform、AWS CloudFormation、Ansible等工具,并有应用经验; 3、熟悉公有云网络,有规划VPC、VGW、NAT网关、VPN、对等连接等相关经验,有混合云连接经验; 4、熟悉公有云Container服务,如AWS EKS、GCP GKE等,能快速跟据需求调度集群; 5、熟悉公有云负载均衡服务,如AWS ELB、GCP CLB等,能够基于业务需求快速配置相应实例; 6、熟悉AWS Route 53、GCP Cloud DNS等服务; 7、熟悉常用的CDN服务,如CloudFront、Cloud CDN、Cloudflare、Akamai等; 8、具有将日常工作工程化的能力优先; 9、主动学习能力强、较好的问题分析与解决能力、抗压性强,良好的沟通协调能力和团队合作精神。"
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
岗位职责: 1、负责托管云的重点客户和重点项目拓展,孵化典型场景(如公有云业务下云)和典型产品/解决方案(如托管私有云)形成标准化销售,推动产品竞争力提升,沉淀精品化的解决方案装备材料; 2、配合行销制定销售策略与打法,包括不限于确定目标客户,确定需求驱动力,明确价值主张、构建竞争力; 3、结合市场发展和竞争环境,提炼出差异化的价值主张和市场理念,通过成营销落地执行,成功在目标市场里树立起产品技术/品牌领导地位; 4、支持各类标准化工作和市场营销活动,支持品牌影响的落地构建和影响力建设。 岗位要求: 1、精通公有云的主要产品和解决方案,包括计算、网络、存储、数据库、容器和PaaS等,能够独立编写满足客户需求的解决方案;熟悉主流云计算领域的相关技术,如计算虚拟化、存储虚拟化、私有云、云管理等; 2、5年及以上IT基础设施、公有云相关产品和解决方案工作经验;具备丰富的客户项目成功经验,对政企客户、泛企业、互联网客户的业务具备一定的了解和洞察能力; 3、学习能力强,能够独立对相关场景的技术和客户需求进行持续洞察; 4、具有非常强烈的成就欲望、自驱力强、能够为业务成功负责。
-
岗位职责: 1、对核心业务进行应用安全架构设计,能够出具完整的应用安全实施解决方案; 2、安全需求评审、安全代码审计、渗透测试、漏洞应急响应等工作; 3、进行与业务贴近的安全技术研究、安全方案设计、安全产品能力运营等; 任职资格: 1.本科及以上学历,5年以上甲乙方安全从业经验 2.精通软件安全开发生命周期(比如微软SDL或owasp SAMM),熟悉行业主流的安全标准、安全模型、安全解决方案、安全体系; 3.丰富的WEB或移动端安全测试及漏洞挖掘经验(黑盒和白盒),有大型应用项目安全评估经验; 4.安全基础扎实,熟悉漏洞的内在原理、检测方法、利用手段以及对应解决方案; 5.熟练掌握JAVA、Python、Swift中的一种或多种编程语言; 加分项: 1、掌握数据挖掘及机器学习算法技能并有实践经验; 2、SRC核心白帽子或者通用漏洞提报者;