-
职位职责: 1、负责私有化项目的售后技术支持工作; 2、负责处理私有化项目的告警、故障响应; 3、负责运维脚本的开发; 4、负责公司产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、本科及以上学历,具有两年以上大型 IT 系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Impala、Clickhouse、Redis、Kafka等组件; 4、至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、至少熟悉一种脚本语言:Shell、Python 等; 6、对云平台有一定的了解,有使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
-
岗位职责: Job Title: 数据中心运维工程师 Operations Engineer of Data Center Department: Data Center (DC), Information Technology Department (ITD), HKUST(GZ) Job ID: Job Posting Details Duties 1. 负责学校数据中心整体的管理,确保数据中心的安全稳定运行 2. 负责学校数据中心机柜资源管理、服务器托管管理、综合布线管理 3. 负责学校数据中心人员、物资进出管理、巡检管理、故障处理、数据机房随工管理 4. 负责学校数据中心相关的应急演练管理 5. 负责学校数据中心运维的文档资料、运维工具的管理和定期检验 6. 负责学校数据中心运维自动化的规划、使用,提高运维效率,降低风险 7. 负责与学校相关部门协同供电供冷等基础设施管理、能耗管理 任职要求: Qualification Requirements 1. 大学本科或以上学历,计算机、网络工程、自动化、电子信息、机电或暖通类工程等相关专业; 2. 5年以上数据中心运维管理工作经验,有PMP证书;有中大型数据中心运维经验者优先; 3. 熟悉包括高压/低压/UPS/柴油发电/暖通空调/给排水/消防/安防/门禁/监控等系统的运行维护;掌握设施、电力、暖通空调、消防等方面专业知识; 4. 除数据中心运维经验外,具备数据中心规划设计、工程实施等相关经验者优先考虑; 5. 了解TIA-942、GB/T 50174-2017等数据中心相关标准;了解ITSM相关理念及知识,包括ITIL/ISO 20000等标准,事件/变更/问题等主要流程知识等; 6. 具备CAD图纸智能化专业读图能力。具备良好写作能力,能根据学校管理要求、数据中心运维需求、需求部门的需求,编制和制定各类表单记录、报告、方案等材料; 7. 具备流畅的表达和沟通能力、团队合作精神及主动服务的责任心。 This is a Mainland appointment, and the appointee will be offered a contract by HKUST(GZ) entity in accordance with the Mainland labor laws and regulations. Starting salary will be commensurate with qualifications and experience. Application Procedure In support of a green work environment, we accept applications submitted online only. To apply, please register and log in via this link: https://career.hkust-gz.edu.cn/en/career and search for the opening by Job ID or Job Title. Applicants should include a Resume in their applications, and could check their application status via the recruitment website. We thank applicants for their interest but advise only shortlisted candidates will be notified of the result of the application. In exceptional circumstances, for example unsuccessful application, please contact Human Resources Department at ********************. (Information provided by applicants will be used for recruitment and other employment-related purposes only.) HKUST (GZ) is an equal opportunities employer and is committed to our core values of inclusiveness, diversity, and respect.
-
工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
25k-35k·13薪 经验5-10年 / 不限科技金融,人工智能服务 / 上市公司 / 500-2000人职位描述: 1、负责数据库架构设计及实施,保证数据库服务的高可用; 2、制定并优化数据库监控策略,提早发现并解决数据库可能出现的问题; 3、建立完善的数据库及备份运维和管理流程,数据库维护管理体系; 4、负责数据库运维过程中的问题排查及快速解决问题。 5、跟踪调研数据库领域的新技术新产品,根据业务发展需求设计解决方案。 职位要求: 1、3 年以上 DBA 相关工作经验(MySQL、Oracle、PostgreSQL 等),互联网工作经验更佳。 2、深入了解 mysql postgresql mongodb oracle 等其中一项主流关系型数据库体系架构; 3、精通 MySQL 高可用方案,灾备方案。能够独立设计并实施数据库高可用架构方案。 4、熟悉 MySQL 高并发,有丰富的故障处理和性能优化经验。熟悉常用的监控工具。 5、熟悉存储相关服务,如分布式系统、ES、redis cluster、fastdfs、gfs等。 6、有大规模 MySQL 、Redis、MongoDB等数据库运维经验者优先。 7、较强的学习能力,良好的沟通能力,熟悉部门间协调及优秀的工作推动能力,工作积极主动,有服务意识和团队协作精神。
-
职位描述: 1、负责数据库架构设计及实施,保证数据库服务的高可用; 2、制定并优化数据库监控策略,提早发现并解决数据库可能出现的问题; 3、建立完善的数据库及备份运维和管理流程,数据库维护管理体系; 4、负责数据库运维过程中的问题排查及快速解决问题。 5、跟踪调研数据库领域的新技术新产品,根据业务发展需求设计解决方案。 职位要求: 1、3 年以上 DBA 相关工作经验(MySQL、Oracle、PostgreSQL 等),互联网工作经验更佳。 2、深入了解 mysql postgresql mongodb oracle 等其中一项主流关系型数据库体系架构; 3、精通 MySQL 高可用方案,灾备方案。能够独立设计并实施数据库高可用架构方案。 4、熟悉 MySQL 高并发,有丰富的故障处理和性能优化经验。熟悉常用的监控工具。 5、熟悉存储相关服务,如分布式系统、ES、redis cluster、fastdfs、gfs等。 6、有大规模 MySQL 、Redis、MongoDB等数据库运维经验者优先。 7、较强的学习能力,良好的沟通能力,熟悉部门间协调及优秀的工作推动能力,工作积极主动,有服务意识和团队协作精神。
-
职位职责: 1、构建全面的人员画像体系,设计合理的数据采集和存储方案,确保画像数据的准确性和完整性; 2、针对特定场景下产生的问题进行深入分析,提供精准的诊断报告,为管理者开发辅助决策的信息参考工具,助力流程规范和优化; 3、与交付团队、管理层及相关部门紧密沟通,深入了解业务需求和痛点; 4、制定产品项目计划,明确项目目标、任务、时间节点和资源分配,确保项目按时交付; 5、建立产品运营数据监控体系,实时跟踪产品运行数据,分析业务指标,为产品决策提供数据支持。 职位要求: 1、具有结构化思考,处理过团队的运营管理流程,对复杂和多样的业务流程能充分抽象; 2、熟悉交付团队的运营管理的相关业务流程,站在运营使用视角设计产品和数据处理; 3、有数据驱动的产品设计思路,了解不同用工模式的特点和运作方式; 4、具有3年以上产品管理工作经验,有成功的产品项目案例,熟悉产品开发流程; 5、在安全审核产品、交付团队管理产品、运营后台产品等领域有相关工作经验者优先。
-
工作职责 1. 数据面性能测试工具(spate)研发; 2. LR-GW 研发; 3. EP-GW 研发; 4. L4LB-GW 研发。 任职要求 1. 熟悉Linux操作系统下C/C++开发,能运行常见工具定位调试问题代码; 2. 熟悉Linux内核网络协议栈,有内核开发经验; 3. 熟悉路由器/交换机工作原理,熟悉NAT、VPN、负载均衡、SDN、NFV、Overlay等网络技术; 4. 熟悉Openstack/Cloudstack等云平台,有OVS/OVS-DPDK等开发经验者优先; 5. 熟悉DPDK、VPP等,有用户态协议栈开发经验者优先; 6. 良好的沟通与团队协作能力。
-
工作职责 1. 基于业务需求,定义员工核心属性和画像标签,通过各类数据实现画像标签的落地和应用闭环。 2. 定义画像标签含义及计算逻辑,探索集团内外结构化与非结构化数据,进行落地可行性评估,数据包括但不限于系统数据、埋点日志、文本、外域数据等。 3. 定义画像标签准确度评估方式,包括但不限于通过应用效果评估、一线反馈闭环等方式,持续验证和提升画像标签的准确度。 4. 持续挖掘业务应用场景,协同下游产品、业务,使员工画像数据标签能够得到全面应用。 任职要求 1. 有3年以上在用户画像、员工画像、用户增长营销/运营方向相关工作经验,有过画像分析项目落地经验者优先。 2. 计算机、数学、统计等相关专业本科及以上学历,具备统计/机器学习/深度学习领域的知识和能力基础,有数据科学、大模型相关工作经验者尤佳。 3. 熟悉SQL操作,可以使用python、sql、hive等数据处理工具进行数据分析处理。 4. 具备业务视野和数据敏感度,能够快速熟悉业务领域、敏锐地捕捉业务核心和数据价值。 5. 有良好的信息提炼与整合能力,能熟练制作美观、专业、可读的汇报材料。 6. 具备优秀的沟通和统筹协调能力,对工作有高度的自驱力、责任心、执行力,有强烈的好奇心,乐于接受挑战。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
职责描述: 1、探索平台内部及外部各类数据,形成完整的客户画像体系; 2、从金融产品的各个环节着手,通过量化分析的方式制定专题分析方案; 3、持续监控各产品线风险状况,对关键指标的异动进行及时的分析与原因查找; 4、和其他部门同事协同工作,进行跨部门业务沟通与合作; 5、能够独挡一面,完成数据分析相关工作。 任职要求: 1、***本科及以上学历,熟练掌握SQL语言,并至少熟悉SAS/R/PYTHON之一; 2、能够快速理解业务逻辑,擅长运用量化分析的方法解决业务问题;有金融贷款业务工作经验者优先; 3、能熟练运用Excel的数据分析模块进行数据分析,熟悉Powerpoint优先; 4、工作踏实,逻辑清晰,学习能力强; 5、具有团队管理经验或者相关意向者优先。
-
工作职责: 1、对产品技术体系进行数据需求支持,挖掘分析主题,开展数据分析工作,基于数据分析成果,为产品部门提供业务优化建议,持续改进产品运营效果; 2、参与数据分析呈现分析结果,核心指标挖掘,建立数据可视化监控; 3、参与相关数据体系建设工作,搭建数据指标体系,制定数据指标、统一数据口径,并落地。 任职要求: 1、本科学历及以上,统计学、数学、计算机相关专业; 2、具备互联网公司数据分析或数据挖掘岗位3年以上经验; 3、具有良好的逻辑分析能力,能够独立跟进项目; 4、勤奋好学,积极上进,能够快速掌握相关业务/技术知识; 5、有责任心,抗压能力强,性格开朗,注重人际沟通。
-
岗位职责: 1、参与产品功能迭代实验、ABT实验效果回收、异动归因、因果推断等 2、熟悉推荐/搜索业务链路,能够构建链路中的数据体系 3. 参与推荐/搜索的策略分析,探索增长点赋能业务增长 3、了解埋点,业务日常数据需求支持,数据提取、报表配置等 岗位要求: 1、3-5年,本科及以上学历,有数学、统计相关专业或数据分析经验优先; 2、熟悉常见的数据分析方法,SQL能力较强; 3、熟悉tableau配置; 4、较强的学习能力、沟通表达能力、理解能力及洞察能力; 5、熟悉AB tesing基本原理和方
-
工作职责: 1、基于业务发展和风险要求,能够独立挖掘关键变量,优化贷中的额度策略; 2、基于业务逻辑,能够独立构建评分卡,辅助和优化相关风控策略; 3、独立评估策略和模型效果,出具相关分析报告; 4、能够独立部署相关监控及密切关注风险和业务各项指标,及时发现异常; 5、支持数据提取和分析需求; 6、与多部门沟通合作,提高业务整体发展效率; 7、能在规定时间内完成相关分析及策略优化。 任职要求: 1、**本科及以上学历,统计、计量、数学、计算机等相关专业; 2、具有风控相关工作经验,如风控策略、模型; 3、熟悉相关机器学习算法,包括不限于逻辑回归,决策数,gbdt、xgboost等; 4、能够熟练使用SQL、Python或R、SAS; 5、对数据敏感,有风险意识; 6、有较强的逻辑分析和沟通能力,及团队合作意识。