-
岗位职责: Job Title: 数据中心运维工程师 Operations Engineer of Data Center Department: Data Center (DC), Information Technology Department (ITD), HKUST(GZ) Job ID: Job Posting Details Duties 1. 负责学校数据中心整体的管理,确保数据中心的安全稳定运行 2. 负责学校数据中心机柜资源管理、服务器托管管理、综合布线管理 3. 负责学校数据中心人员、物资进出管理、巡检管理、故障处理、数据机房随工管理 4. 负责学校数据中心相关的应急演练管理 5. 负责学校数据中心运维的文档资料、运维工具的管理和定期检验 6. 负责学校数据中心运维自动化的规划、使用,提高运维效率,降低风险 7. 负责与学校相关部门协同供电供冷等基础设施管理、能耗管理 任职要求: Qualification Requirements 1. 大学本科或以上学历,计算机、网络工程、自动化、电子信息、机电或暖通类工程等相关专业; 2. 5年以上数据中心运维管理工作经验,有PMP证书;有中大型数据中心运维经验者优先; 3. 熟悉包括高压/低压/UPS/柴油发电/暖通空调/给排水/消防/安防/门禁/监控等系统的运行维护;掌握设施、电力、暖通空调、消防等方面专业知识; 4. 除数据中心运维经验外,具备数据中心规划设计、工程实施等相关经验者优先考虑; 5. 了解TIA-942、GB/T 50174-2017等数据中心相关标准;了解ITSM相关理念及知识,包括ITIL/ISO 20000等标准,事件/变更/问题等主要流程知识等; 6. 具备CAD图纸智能化专业读图能力。具备良好写作能力,能根据学校管理要求、数据中心运维需求、需求部门的需求,编制和制定各类表单记录、报告、方案等材料; 7. 具备流畅的表达和沟通能力、团队合作精神及主动服务的责任心。 This is a Mainland appointment, and the appointee will be offered a contract by HKUST(GZ) entity in accordance with the Mainland labor laws and regulations. Starting salary will be commensurate with qualifications and experience. Application Procedure In support of a green work environment, we accept applications submitted online only. To apply, please register and log in via this link: https://career.hkust-gz.edu.cn/en/career and search for the opening by Job ID or Job Title. Applicants should include a Resume in their applications, and could check their application status via the recruitment website. We thank applicants for their interest but advise only shortlisted candidates will be notified of the result of the application. In exceptional circumstances, for example unsuccessful application, please contact Human Resources Department at ********************. (Information provided by applicants will be used for recruitment and other employment-related purposes only.) HKUST (GZ) is an equal opportunities employer and is committed to our core values of inclusiveness, diversity, and respect.
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: (1)负责公司IDC机房设备配备、使用和管理; (2)组织系统信息化基础设施建设实施和运维管理; (3)负责承担互联网数据中心监控环境搭建和管理工作; (4)负责组织管理公司容灾备份体系的建设和运维; (5)负责协助网络突发事件、故障等的应急处理,协助制定故障处理流程和应用预案相关工作、对一、二线人员提供技术支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机、通信、电子工程等相关专业本科及以上学历,3年以上互联网数据中心运维工作经验; (2)熟悉数据中心网络架构、服务器设备、存储设备及相关技术; (3)具备良好的故障排查和问题解决能力,能快速定位和解决各类技术问题; (4)熟悉Linux系统操作和维护,具备Shell脚本编写能力; (5)具备扎实的网络基础知识,熟悉TCP/IP协议栈、路由交换技术; (6)有良好的团队协作和沟通能力,具备强烈的责任心和敬业精神; (7)持有相关认证(如CCNA、CCNP、RHCE等)者优先。
-
工作职责 1、负责辖区数据中心设施运维服务管控,确保服务工单时效性、客户满意度、变更管理、服务SLA等,均满足服务质量要求; 2、负责对数据中心的运行数据进行收集、整理和分析,定期汇报数据中心的运行情况; 3、负责辖区数据中心运营相关成本费用和收入结算的合理规划和把控实施; 4、负责辖区数据中心运维合规和安全审计工作的统筹管理; 5、负责辖区数据中心机柜资源使用规划,推动提升资源利用率; 6、负责辖区合作商管理以及合同管理。 任职要求 1、本科及以上学历; 2、2年以上数据中心维护或相关领域工作经验; 3、了解数据中心行业规范、政策、技术、产品及理念; 4、熟悉数据中心供电、暖通、弱电智能化、消防等系统,熟悉数据中心主要设备的工作原理; 5、熟悉机柜资源的使用规划和管理; 6、熟悉机房租赁的服务合作模式及合同管理; 7、具备良好的沟通能力和团队合作精神,有较强的数据分析和汇报能力。
-
所有岗位均可远程办公,以下是每个岗位的重点要求,详细JD可私信发送 -golang:熟悉中间件开发,或者熟悉Docker, Kubernetes(K8s),或者处理过高并发业务 -编译器开发:掌握编译原理和基本概念、编译器开发经验、解释器开发经验 -引擎开发:交易系统、分布式事务、分布式交易方向,开发语言golang或者LinuxC都可以;互联网背景优先 -数据负责人:数据组负责人,负责数据组日常管理及数据工作流程制定等;数据要求:千万级以上用户量,总处理数据规模大于100T,单日处理数据居量在亿级别; 管理经验:有带领10-20人团队经验,并且可独立参与技术细节; -数据开发:需要有flink经验 -运维负责人:运维小组负责人,负责运维组工作统筹规划、流程制度建设 -运维工程师:大厂体系化工作经验优先;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -研发工程师:最好有大厂体系化工作经验;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -前端:react技术栈
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
25k-35k·13薪 经验5-10年 / 不限科技金融,人工智能服务 / 上市公司 / 500-2000人职位描述: 1、负责数据库架构设计及实施,保证数据库服务的高可用; 2、制定并优化数据库监控策略,提早发现并解决数据库可能出现的问题; 3、建立完善的数据库及备份运维和管理流程,数据库维护管理体系; 4、负责数据库运维过程中的问题排查及快速解决问题。 5、跟踪调研数据库领域的新技术新产品,根据业务发展需求设计解决方案。 职位要求: 1、3 年以上 DBA 相关工作经验(MySQL、Oracle、PostgreSQL 等),互联网工作经验更佳。 2、深入了解 mysql postgresql mongodb oracle 等其中一项主流关系型数据库体系架构; 3、精通 MySQL 高可用方案,灾备方案。能够独立设计并实施数据库高可用架构方案。 4、熟悉 MySQL 高并发,有丰富的故障处理和性能优化经验。熟悉常用的监控工具。 5、熟悉存储相关服务,如分布式系统、ES、redis cluster、fastdfs、gfs等。 6、有大规模 MySQL 、Redis、MongoDB等数据库运维经验者优先。 7、较强的学习能力,良好的沟通能力,熟悉部门间协调及优秀的工作推动能力,工作积极主动,有服务意识和团队协作精神。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。
-
岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
-
职位概述: 数据中心基础设施运维值班员负责维护和操作数据中心的基础设施系统(包括电气、暖通、消安防等设备),以确保其正常运行并提供稳定、可靠的网络环境。 主要职责: 1. 监控和维护数据中心基础设施系统,包括电气、暖通、消安防设备等。 2. 记录并报告任何异常或故障,及时采取相应的维护和修复措施。 3. 遵循安全操作规程,确保值班期间的安全。 4. 协助工程师进行定期维护和预防性检查。 5. 参与培训和团队沟通,了解新的技术和最佳实践。 6. 遵守公司政策和上级指示,确保工作的高效性和准确性。 基本要求: 1. 大专及以上学历。 2.具备相关专业运行维护经验。 3. 具备电工证/制冷证。 4. 良好的沟通能力和团队合作精神。 5. 能够接受白夜休休轮班制工作。 加分项:有一定的数据中心基础设施运维经验。 这个岗位需要细心、有责任心,并具有快速应对突发事件的能力。同时,需要具备良好的团队合作和沟通能力,以保持高效的工作流程和良好的团队氛围。我们欢迎具有这些技能的候选人加入我们的团队!
-
【职位描述】 我们正在寻找一名有经验的大数据运维工程师来加入我们的团队。该职位需要负责管理和维护公司的大数据基础设施,确保它们始终处于高效稳定状态。 【职位职责】 管理和监控大数据平台(CDH),包括Hadoop、Flink、Spark、Kafka、Clickhouse等; 配置和优化集群资源,提高系统性能和稳定性; 编写和维护自动化脚本,以简化日常运维任务; 跟踪和解决生产环境中出现的问题,包括故障、网络问题、作业卡顿等; 与开发团队合作,协助他们进行调试和优化代码; 负责安全策略的实施和维护,保证系统的安全性; 探索新技术并评估其适用性,为公司提供技术创新建议; 【职位要求】 本科以上学历,计算机相关专业; 3年以上大数据运维经验,熟悉Hadoop、Spark等技术栈; 精通Linux操作系统,熟悉网络和存储技术; 熟悉至少一种编程语言,如Python、Java等; 具备良好的沟通能力和团队合作精神; 具备良好的解决问题和学习新技术的能力; 【加分项】 熟悉机器学习、人工智能、数据挖掘等相关技术; 有大型分布式系统设计和架构经验; 有云计算平台运维经验; 如果您热爱大数据技术,拥有较强的技术实力和团队合作精神,欢迎加入我们!
-
岗位职责: 1. 负责华为大数据产品MRS的日常运维工作,确保系统稳定、高效运行; 2. 负责MRS集群的安装、部署、升级、扩容、故障处理等运维操作; 3. 监控MRS集群性能,发现并解决系统性能瓶颈,优化系统配置; 4. 负责MRS集群的备份、恢复及数据迁移工作; 5. 负责编写、优化和维护MRS运维文档,提高运维工作效率; 6. 协助开发团队进行大数据平台的优化和改进; 7. 参与公司大数据项目的实施,提供技术支持。 任职要求: 1. 本科及以上学历,计算机、网络、通信等相关专业; 2. 具备1-2年华为大数据产品MRS运维经验,熟悉MRS架构及组件; 3. 熟悉Linux操作系统,掌握Shell脚本编程; 4. 熟悉Hadoop、Spark、Hive、HBase等大数据技术栈; 5. 了解网络基础知识,具备一定的网络故障排查能力; 6. 具备良好的沟通和团队协作能力,能承受工作压力; 7. 具备华为大数据认证者优先。
热门职位