-
岗位职责: (1)负责公司IDC机房设备配备、使用和管理; (2)组织系统信息化基础设施建设实施和运维管理; (3)负责承担互联网数据中心监控环境搭建和管理工作; (4)负责组织管理公司容灾备份体系的建设和运维; (5)负责协助网络突发事件、故障等的应急处理,协助制定故障处理流程和应用预案相关工作、对一、二线人员提供技术支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机、通信、电子工程等相关专业本科及以上学历,3年以上互联网数据中心运维工作经验; (2)熟悉数据中心网络架构、服务器设备、存储设备及相关技术; (3)具备良好的故障排查和问题解决能力,能快速定位和解决各类技术问题; (4)熟悉Linux系统操作和维护,具备Shell脚本编写能力; (5)具备扎实的网络基础知识,熟悉TCP/IP协议栈、路由交换技术; (6)有良好的团队协作和沟通能力,具备强烈的责任心和敬业精神; (7)持有相关认证(如CCNA、CCNP、RHCE等)者优先。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: Job Title: 数据中心运维工程师 Operations Engineer of Data Center Department: Data Center (DC), Information Technology Department (ITD), HKUST(GZ) Job ID: Job Posting Details Duties 1. 负责学校数据中心整体的管理,确保数据中心的安全稳定运行 2. 负责学校数据中心机柜资源管理、服务器托管管理、综合布线管理 3. 负责学校数据中心人员、物资进出管理、巡检管理、故障处理、数据机房随工管理 4. 负责学校数据中心相关的应急演练管理 5. 负责学校数据中心运维的文档资料、运维工具的管理和定期检验 6. 负责学校数据中心运维自动化的规划、使用,提高运维效率,降低风险 7. 负责与学校相关部门协同供电供冷等基础设施管理、能耗管理 任职要求: Qualification Requirements 1. 大学本科或以上学历,计算机、网络工程、自动化、电子信息、机电或暖通类工程等相关专业; 2. 5年以上数据中心运维管理工作经验,有PMP证书;有中大型数据中心运维经验者优先; 3. 熟悉包括高压/低压/UPS/柴油发电/暖通空调/给排水/消防/安防/门禁/监控等系统的运行维护;掌握设施、电力、暖通空调、消防等方面专业知识; 4. 除数据中心运维经验外,具备数据中心规划设计、工程实施等相关经验者优先考虑; 5. 了解TIA-942、GB/T 50174-2017等数据中心相关标准;了解ITSM相关理念及知识,包括ITIL/ISO 20000等标准,事件/变更/问题等主要流程知识等; 6. 具备CAD图纸智能化专业读图能力。具备良好写作能力,能根据学校管理要求、数据中心运维需求、需求部门的需求,编制和制定各类表单记录、报告、方案等材料; 7. 具备流畅的表达和沟通能力、团队合作精神及主动服务的责任心。 This is a Mainland appointment, and the appointee will be offered a contract by HKUST(GZ) entity in accordance with the Mainland labor laws and regulations. Starting salary will be commensurate with qualifications and experience. Application Procedure In support of a green work environment, we accept applications submitted online only. To apply, please register and log in via this link: https://career.hkust-gz.edu.cn/en/career and search for the opening by Job ID or Job Title. Applicants should include a Resume in their applications, and could check their application status via the recruitment website. We thank applicants for their interest but advise only shortlisted candidates will be notified of the result of the application. In exceptional circumstances, for example unsuccessful application, please contact Human Resources Department at ********************. (Information provided by applicants will be used for recruitment and other employment-related purposes only.) HKUST (GZ) is an equal opportunities employer and is committed to our core values of inclusiveness, diversity, and respect.
-
工作职责 1、负责辖区数据中心设施运维服务管控,确保服务工单时效性、客户满意度、变更管理、服务SLA等,均满足服务质量要求; 2、负责对数据中心的运行数据进行收集、整理和分析,定期汇报数据中心的运行情况; 3、负责辖区数据中心运营相关成本费用和收入结算的合理规划和把控实施; 4、负责辖区数据中心运维合规和安全审计工作的统筹管理; 5、负责辖区数据中心机柜资源使用规划,推动提升资源利用率; 6、负责辖区合作商管理以及合同管理。 任职要求 1、本科及以上学历; 2、2年以上数据中心维护或相关领域工作经验; 3、了解数据中心行业规范、政策、技术、产品及理念; 4、熟悉数据中心供电、暖通、弱电智能化、消防等系统,熟悉数据中心主要设备的工作原理; 5、熟悉机柜资源的使用规划和管理; 6、熟悉机房租赁的服务合作模式及合同管理; 7、具备良好的沟通能力和团队合作精神,有较强的数据分析和汇报能力。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
25k-35k·13薪 经验5-10年 / 不限科技金融,人工智能服务 / 上市公司 / 500-2000人职位描述: 1、负责数据库架构设计及实施,保证数据库服务的高可用; 2、制定并优化数据库监控策略,提早发现并解决数据库可能出现的问题; 3、建立完善的数据库及备份运维和管理流程,数据库维护管理体系; 4、负责数据库运维过程中的问题排查及快速解决问题。 5、跟踪调研数据库领域的新技术新产品,根据业务发展需求设计解决方案。 职位要求: 1、3 年以上 DBA 相关工作经验(MySQL、Oracle、PostgreSQL 等),互联网工作经验更佳。 2、深入了解 mysql postgresql mongodb oracle 等其中一项主流关系型数据库体系架构; 3、精通 MySQL 高可用方案,灾备方案。能够独立设计并实施数据库高可用架构方案。 4、熟悉 MySQL 高并发,有丰富的故障处理和性能优化经验。熟悉常用的监控工具。 5、熟悉存储相关服务,如分布式系统、ES、redis cluster、fastdfs、gfs等。 6、有大规模 MySQL 、Redis、MongoDB等数据库运维经验者优先。 7、较强的学习能力,良好的沟通能力,熟悉部门间协调及优秀的工作推动能力,工作积极主动,有服务意识和团队协作精神。
-
所有岗位均可远程办公,以下是每个岗位的重点要求,详细JD可私信发送 -golang:熟悉中间件开发,或者熟悉Docker, Kubernetes(K8s),或者处理过高并发业务 -编译器开发:掌握编译原理和基本概念、编译器开发经验、解释器开发经验 -引擎开发:交易系统、分布式事务、分布式交易方向,开发语言golang或者LinuxC都可以;互联网背景优先 -数据负责人:数据组负责人,负责数据组日常管理及数据工作流程制定等;数据要求:千万级以上用户量,总处理数据规模大于100T,单日处理数据居量在亿级别; 管理经验:有带领10-20人团队经验,并且可独立参与技术细节; -数据开发:需要有flink经验 -运维负责人:运维小组负责人,负责运维组工作统筹规划、流程制度建设 -运维工程师:大厂体系化工作经验优先;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -研发工程师:最好有大厂体系化工作经验;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -前端:react技术栈
-
岗位职责: 1、负责大数据相关组件的架构规划、设计、运维、治理,保障平台服务的稳定性及可用性; 2、负责制定和完善大数据全链路风险评估、变更流程、运维规范、应急预案相关SRE体系建设; 3、深入参与大数据基础设施建设及性能优化,问题定位处理,; 4、负责大数据组件性能POC工作,协助解决组件技术问题。 岗位要求: 1、本科以上学历,计算机类、数学类、数据类相关专业,并有三年以上大数据领域工作经验; 2、熟悉java, go, python等至少一种开发语言; 3、深入理解hadoop大数据生态组件(Hadoop、Hive、Spark、Flink),从事过相关组件的架构设计、研发运维、性能调优或迁移工作; 4、有过组件二次开发经验或者AWS云数据仓库使用经验,加分项; 5、了解SRE方法和原则的实际经验,能够设计和执行故障演练和混沌工程,加分项; 6、具备系统化解决问题的能力,有良好的沟通能力,积极主动、自驱力强,有责任心,并且有一定抗压能力;
-
*岗位职责: 1.参与数据库系统的规划设计与实施,复制制定数据库建设方案 ; 2.负责数据库日常管理,运行维护与优化; 3.负责数据库监控建设,管理与优化; 4.参与数据库自动化工具设计,负责数据库自动化建设与优化; 5.参与数据库新技术预研、国产数据库的预研及建设实施。 *职位要求: 1)本科及以上学历,计算机相关专业; 2)3年以上数据库运维管理经验,能独立完成大规模数据库运维。 3)熟练使用shell/python/java一种语言,熟练使用sql相关操作。 4)至少熟悉Oracle、DB2、MySQL等常用数据库中的一种,有各类数据库官方认证的优先。 5)有较强的学习和抗压能力,工作积极主动,对技术有强烈的热情,热衷于新技术学习和应用。
-
岗位职责: 1、负责Hadoop、HBase、Hive、Spark等大数据平台的漏洞修复,安全管控等,确保高可用; 2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化各类异常和故障,排查安全风险,确保系统平台的稳定运行; 3、对大数据组件和linux系统存在的安全漏洞的进行分析和测试; 4、对平台安全问题进行整改计划的制定和编排; 5、设计实现linux主机和大数据hadoop平台的安全手册; 6、深入研究大数据业务相关安全技术,探索新的大数据安全技及发展方向。 任职要求: 1.***大学本科及以上学历。 2.深入理解linux系统,有扎实的Linux功底,熟悉CentOS、Suse等,有3年以上基于linux平台的系统运维经验; 3.熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、Hive、HBase、Spark、Kafka、Flume、presto、alluxio等; 4.熟悉Nginx、kafka、postgres、redis、nacos等中间件产品中的一项或多项; 5.熟悉数据库性能优化、SQL调优,包括但不仅限于MySQL、Redis、Clickhouse等; 6.有开发经验优先,精通一门以上脚本语言(shell/perl/python等),熟练掌握linux常规命令与工具,具有简单的Shell脚本编写能力; 7.拥有Hadoop相关证书者优先考虑,拥有超大规模Hadoop集群维护经验者优先;拥有安全类认证证书者优先; 8.具备基本的系统安全基础; 9.具备良好独立思考,解决问题的能力。
-
岗位职责: 1、负责Hadoop、HBase、Hive、Spark等大数据平台规划、部署、监控、系统优化等,确保高可用; 2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化各类异常和故障,确保系统平台的稳定运行; 3、负责大数据ETL系统运维,及时排除ETL流程故障,保障服务稳定可用; 4、负责监控和优化ETL的性能,持续提出改进自动化运维平台建议; 5、设计实现大规模分布式集群的运维、监控和管理平台; 6、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向。 任职要求: 1.***大学本科及以上学历,通信、计算机、信息技术、大数据等相关专业。 2.熟悉Hadoop/HBase/Hive/Spark/Kafka/Zookeeper等开源项目的安装与调试,升级扩容; 3.熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、Hive、HBase、Spark、Kafka、Flume、presto、alluxio等; 4.熟悉saltstack、ansible等自动化配置管理工具; 5.熟悉数据库性能优化、SQL调优,包括但不仅限于MySQL、Redis、Clickhouse等; 6.有开发经验优先,精通一门以上脚本语言(shell/perl/python等),熟练掌握linux常规命令与工具,具有简单的Shell脚本编写能力; 7.拥有Hadoop相关证书者优先考虑,拥有超大规模Hadoop集群维护经验者优先; 8.具备良好独立思考,解决问题的能力。