• 13k-15k·16薪 经验5-10年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责公司IDC机房设备配备、使用和管理; (2)组织系统信息化基础设施建设实施和运维管理; (3)负责承担互联网数据中心监控环境搭建和管理工作; (4)负责组织管理公司容灾备份体系的建设和运维; (5)负责协助网络突发事件、故障等的应急处理,协助制定故障处理流程和应用预案相关工作、对一、二线人员提供技术支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机、通信、电子工程等相关专业本科及以上学历,3年以上互联网数据中心运维工作经验; (2)熟悉数据中心网络架构、服务器设备、存储设备及相关技术; (3)具备良好的故障排查和问题解决能力,能快速定位和解决各类技术问题; (4)熟悉Linux系统操作和维护,具备Shell脚本编写能力; (5)具备扎实的网络基础知识,熟悉TCP/IP协议栈、路由交换技术; (6)有良好的团队协作和沟通能力,具备强烈的责任心和敬业精神; (7)持有相关认证(如CCNA、CCNP、RHCE等)者优先。
  • 金融 / 上市公司 / 2000人以上
    工作职责 1、负责辖区数据中心设施运维服务管控,确保服务工单时效性、客户满意度、变更管理、服务SLA等,均满足服务质量要求; 2、负责对数据中心的运行数据进行收集、整理和分析,定期汇报数据中心的运行情况; 3、负责辖区数据中心运营相关成本费用和收入结算的合理规划和把控实施; 4、负责辖区数据中心运维合规和安全审计工作的统筹管理; 5、负责辖区数据中心机柜资源使用规划,推动提升资源利用率; 6、负责辖区合作商管理以及合同管理。 任职要求 1、本科及以上学历; 2、2年以上数据中心维护或相关领域工作经验; 3、了解数据中心行业规范、政策、技术、产品及理念; 4、熟悉数据中心供电、暖通、弱电智能化、消防等系统,熟悉数据中心主要设备的工作原理; 5、熟悉机柜资源的使用规划和管理; 6、熟悉机房租赁的服务合作模式及合同管理; 7、具备良好的沟通能力和团队合作精神,有较强的数据分析和汇报能力。
  • 25k-40k·16薪 经验不限 / 本科
    金融业 / 不需要融资 / 50-150人
    所有岗位均可远程办公,以下是每个岗位的重点要求,详细JD可私信发送 -golang:熟悉中间件开发,或者熟悉Docker, Kubernetes(K8s),或者处理过高并发业务 -编译器开发:掌握编译原理和基本概念、编译器开发经验、解释器开发经验 -引擎开发:交易系统、分布式事务、分布式交易方向,开发语言golang或者LinuxC都可以;互联网背景优先 -数据负责人:数据组负责人,负责数据组日常管理及数据工作流程制定等;数据要求:千万级以上用户量,总处理数据规模大于100T,单日处理数据居量在亿级别; 管理经验:有带领10-20人团队经验,并且可独立参与技术细节; -数据开发:需要有flink经验 -运维负责人:运维小组负责人,负责运维组工作统筹规划、流程制度建设 -运维工程师:大厂体系化工作经验优先;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -研发工程师:最好有大厂体系化工作经验;分系统运维、应用运维、运维体系建设等三个大方向,有k8s/AWS云等经验优先 -前端:react技术栈
  • 19k-28k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 15k-25k·14薪 经验3-5年 / 本科
    移动互联网,广告营销 / 上市公司 / 2000人以上
    工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。
  • 20k-35k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    工作职责: 1. 负责公司大数据业务的运行维护与底层优化,保障大数据平台服务的稳定 2. 负责大数据运维平台建设,实现大数据自动化部署系统,监控系统,巡检系统的开发 3. 负责大数据日常问题定位及故障处理 任职资格: 1. 3年以上大数据业务维护经验。 2. 对大数据平台有比较深入的了解,熟悉一个或多个大数据组件,如:hadoop/hbase/spark/flink/hive/kafka/flume/zookeeper等,并有实际维护经验。 5. 熟悉OLAP组件Clickhouse,StarRocks等,有OLAP平台运维经验者优先。 3. 熟悉python,java,go等任意一门编程语言,能熟练编写shell脚本。 4. 熟悉linux操作系统,熟练掌握各种linux命令。 6. 有良好的沟通能力、团队协作能力。 7. 有大规模hadoop集群运维经验者优先
  • 20k-35k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    职位描述 1. 负责公司大数据业务的运行维护与底层优化,保障大数据平台服务的稳定 2. 负责大数据运维平台建设,实现大数据自动化部署系统,监控系统,巡检系统的开发 3. 负责大数据日常问题定位及故障处理 岗位要求: 1. 3年以上大数据业务维护经验。 2. 对大数据平台有比较深入的了解,熟悉一个或多个大数据组件,如:hadoop/hbase/spark/flink/hive/kafka/flume/zookeeper等,并有实际维护经验。 5. 熟悉OLAP组件Clickhouse,StarRocks等,有OLAP平台运维经验者优先。 3. 熟悉python,java,go等任意一门编程语言,能熟练编写shell脚本。 4. 熟悉linux操作系统,熟练掌握各种linux命令。 6. 有良好的沟通能力、团队协作能力。 7. 有大规模hadoop集群运维经验者优先。
  • 25k-40k·14薪 经验3-5年 / 本科
    区块链 / 上市公司 / 150-500人
    岗位职责: 1、负责大数据相关组件的架构规划、设计、运维、治理,保障平台服务的稳定性及可用性; 2、负责制定和完善大数据全链路风险评估、变更流程、运维规范、应急预案相关SRE体系建设; 3、深入参与大数据基础设施建设及性能优化,问题定位处理,; 4、负责大数据组件性能POC工作,协助解决组件技术问题。 岗位要求: 1、本科以上学历,计算机类、数学类、数据类相关专业,并有三年以上大数据领域工作经验; 2、熟悉java, go, python等至少一种开发语言; 3、深入理解hadoop大数据生态组件(Hadoop、Hive、Spark、Flink),从事过相关组件的架构设计、研发运维、性能调优或迁移工作; 4、有过组件二次开发经验或者AWS云数据仓库使用经验,加分项; 5、了解SRE方法和原则的实际经验,能够设计和执行故障演练和混沌工程,加分项; 6、具备系统化解决问题的能力,有良好的沟通能力,积极主动、自驱力强,有责任心,并且有一定抗压能力;
  • 8k-10k 经验不限 / 不限
    广告营销,工具 / 未融资 / 15-50人
    工作内容: 1. 数据库监控与性能优化:运维人员需要实时监控数据库的运行状态,一旦发现异常立即进行干预。同时,通过定期性能测试,了解数据库的性能表现,以便及时调整配置或升级硬件。 2. 数据备份与恢复:数据备份与恢复是保障数据库系统可用性和数据安全性的重要手段。运维人员需要制定备份策略,定期进行备份,并确保备份数据的有效性和可用性。在发生故障时,能够快速恢复数据,减少业务中断时间。 3. 安全管理与权限控制:为了防止数据泄露和保护数据安全,需要通过制定严格的安全管理制度,设置复杂的密码,限制用户访问权限等方式,确保数据库系统的安全性。 4. 数据库规划与设计:涉及需求分析、概念设计、逻辑设计和物理设计等方面。需求分析阶段需要明确用户需求和业务需求,物理设计阶段则需要选择合适的数据库管理系统并对其进行配置。 5. 数据库部署与配置:包括安装数据库管理系统、配置网络连接、设置用户权限等工作,以确保数据库系统能够正常运行并提供服务。 6. 容灾管理:容灾是为了保证系统的可用性,通常选择的策略有故障转移集群、镜像、日志传送、异地备份等。如果在实施时已经部署了容灾策略,那么这时只要做一些状态监视即可。 7. 升级/迁移:包括数据库的版本升级和硬件迁移。升级通常是在本机进行,硬件不变,比如更换操作系统、数据库的版本、打补丁;迁移通常是需要升级硬件,比如更换新的服务器,所以把数据库搬到新的服务器上。 8. 参与设计评审:在产品研发初始阶段,参与设计方案评审,从DBA的角度提出数据存储方案、库表设计方案、SQL开发标准、索引设计方案等,使服务满足数据库使用的高可用、高性能要求。 9. 容量规划:掌握所负责服务的数据库的容量上限,清楚地了解当前瓶颈点,当服务还未到达容量上限时,及时进行优化、分拆或者扩容。 10. 数据库高可用和性能优化:对数据库单点风险和故障设计相应的切换方案,降低故障对数据库服务的影响;不断对数据库整体性能进行优化,包括新存储方案引进、硬件优化、文件系统优化、数据库优化、SQL优化等。 每月薪资:8-10k 学历要求:不限 工作年限:不限 工作地址:珠海 任职要求:熟悉Oracel数据库,熟练使用SQL,吃苦耐劳,熟悉数据提取及统计分析 报名方式:请直接投递简历报名或来电咨询报名。
  • 企业服务 / 未融资 / 15-50人
    岗位职责: 1、负责HDFS、HBase、Hive、Yarn、Flume,Kafka、ES等大数据平台的规划、部署、监控和系统优化等工作; 2、负责Hadoop平台的用户管理、权限分配、资源分配; 3、负责Flink集群的部署维护、资源调度及任务上线等; 4、负责Airflow、Azkaban等大数据任务调度平台的部署、维护、开发支持等; 5、处理大数据平台各类异常和故障,确保系统平台的稳定运行; 6、研究业界前沿的大数据运维技术,负责各种运维工具和系统的设计开发; 任职要求: 1、本科以上学历,计算机或相关专业,具备至少3年以上hadoop及相关组件的运维经验; 2、掌握HDFS、HBase、Kafka、Hive、Yarn、Flink、ES等组件的工作原理; 3、熟练掌握至少一种脚本语言(Shell、Python、Java); 4、对Hadoop各组件的权限、安全、Kerberos有一定的经验; 5、熟悉MapReduce算法,能够编写和提交分布式计算任务; 6、对分布式开源项目有技术兴趣,能跟踪Hadoop开源社区的发展方向,自学能力较强,不断改进和优化集群; 7、具备高度的责任心,较强的故障分析及排除能力; 8、具备良好的团队合作精神,工作认真、细心、虚心好学、沟通能力好。
  • 20k-30k·14薪 经验3-5年 / 本科
    居住服务,生活服务 / 不需要融资 / 50-150人
    【职位描述】 我们正在寻找一名有经验的大数据运维工程师来加入我们的团队。该职位需要负责管理和维护公司的大数据基础设施,确保它们始终处于高效稳定状态。 【职位职责】 管理和监控大数据平台(CDH),包括Hadoop、Flink、Spark、Kafka、Clickhouse等; 配置和优化集群资源,提高系统性能和稳定性; 编写和维护自动化脚本,以简化日常运维任务; 跟踪和解决生产环境中出现的问题,包括故障、网络问题、作业卡顿等; 与开发团队合作,协助他们进行调试和优化代码; 负责安全策略的实施和维护,保证系统的安全性; 探索新技术并评估其适用性,为公司提供技术创新建议; 【职位要求】 本科以上学历,计算机相关专业; 3年以上大数据运维经验,熟悉Hadoop、Spark等技术栈; 精通Linux操作系统,熟悉网络和存储技术; 熟悉至少一种编程语言,如Python、Java等; 具备良好的沟通能力和团队合作精神; 具备良好的解决问题和学习新技术的能力; 【加分项】 熟悉机器学习、人工智能、数据挖掘等相关技术; 有大型分布式系统设计和架构经验; 有云计算平台运维经验; 如果您热爱大数据技术,拥有较强的技术实力和团队合作精神,欢迎加入我们!