-
职位职责: 1、负责抖音到家外卖业务的整体数据分析工作,设计全局性指标体系,定期输出日、周、月度报告,对核心数据变化趋势跟踪分析; 2、分业务线/分模块的关键指标分析、专项分析,及时敏锐的发现业务变化、洞察规律,挖掘业务风险与机会,支持业务进行路径探索、诊断优化、业务复盘等,提出有建设性的决策建议; 3、及时发现业务问题、团队问题,并提供优化建议,推动业务优化、人员成长以及管理效率提升。 职位要求: 1、本科及以上学历,5年及以上数据分析经验,有外卖行业经验优先; 2、优秀的数据敏感度,有丰富的数据挖掘、信息采集整理和逻辑分析能力; 3、具备成熟的指标框架构建能力和各类分析方法,针对业务问题可以进行体系化的指标拆解、提出解决方案,并产出高质量的分析报告。
-
职位职责: 1、负责私有化项目的售后技术支持工作; 2、负责处理私有化项目的告警、故障响应; 3、负责运维脚本的开发; 4、负责公司产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、本科及以上学历,具有两年以上大型 IT 系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Impala、Clickhouse、Redis、Kafka等组件; 4、至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、至少熟悉一种脚本语言:Shell、Python 等; 6、对云平台有一定的了解,有使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
-
主要职责: 1. 负责媒体业务的大数据平台的建设工作,包括埋点、收集、加工、应用全流程的建设和迭代工作; 2. 负责数仓建设,制定数据规范,完善数据治理,提升数据产出效率和质量; 3. 对接业务方,为业务服务提供高效率、高可用的数据服务/数据产品; 4. 培养团队成员,组织技术分享,促进团队成员进步。 岗位要求 1. 计算机相关专业本科及以上学历,5年以上大数据方向工作经验; 2. 熟悉数据仓库建模,有实际的实时/离线数仓建模经验,具备一定的Java研发能力; 3. 深入了解大数据技术栈,熟悉spark、flink、hive等技术; 4. 熟悉springboot及相关技术; 5. 良好的沟通能力,团队意识以及跨团队协作能力; 6. 有团队管理经验优先。
-
岗位职责: 1、负责生产数据库(MySQL/Redis/MongoDB/TiDB等)的日常运维,稳定性保障,性能优化; 2、及时定位和排除数据库故障,并对数据库进行持续性能优化,并发现潜在风险; 3、负责数据库常见运维工具的开发及设计; 4、根据业务需求选型数据库存储方案,优化性能,实施集群迁移及扩容; 5、优化现有数据架构,推动及解决现有架构遗留问题; 职位描述 1、具有丰富的数据库领域知识,长期从事数据库领域工作; 2、三年以上MySQL、MongoDB、Redis等数据库运维经验; 3、熟练掌握Linux基本管理,熟练掌握至少二种脚本开发语言(Python、Shell、go、Vue等); 4、精通MySQL数据库配置、备份、优化、监控等; 5、精通MySQL主从复制、高可用方案、负载均衡等; 6、有MySQL高负载高并发系统的运维经验; 7、熟悉MongoDB及Redis,熟悉原理及集群优化方案; 8、有良好的故障排除能力和分析能力,保障业务快速恢复; 9、熟悉数据库容量规划和分库、分表设计方法,有数据库模型设计和支持经验; 10、有金融经验者优先;
-
职位描述: 1、作为数据库内核研发团队成员,参与或主导数据库内核相关领域的新技术探索,含算法、分布式架构等; 2、参与或主导某类数据库领域的客户场景分析、需求定义、架构设计和特性交付; 3、进行相关部分或全部算法设计、数据库系统方案设计以及软件架构设计; 4、独立或协同负责内核或数据库工具特性的研发。 任职要求: 1、本科及以上学历,5年以上工作经验; 2、熟练掌握Linux环境下C/C++编程,熟悉进程间通信、内存管理、网络通信等相关知识; 3、熟悉数据库理论基础和主要算法,并且具有数据库内核相关开发经验者优先; 4、熟悉Oracle、DB2、SQL Server、Sybase、Greenplum、MySQL、PostgreSQL等主流数据库架构中一种或多种者优先; 5、熟悉数据库查询引擎(如查询代价估算算法,分布式查询计划产生算法等)、缓存管理、并行处理、I/O 访问相关知识,并有实践经验者优先; 6、 有广阔的技术视野,优秀的团队合作能力和沟通能力。 7、 喜钻研,有很强的学习能力和分享精神。
-
【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
-
岗位职责:1.负责电营各业务条线数据流转规则策略制定、落地实施及系统自动化;2.负责电营各业务条线数据流转全链路监控分析,实现数据流转规则策略迭代;3.负责为电营数据流转分配的动态匹配模型提供数据基础,提升业务效益,数据驱动业务发展的分析闭环。岗位要求:1.*****本科及以上学历,数学、统计、计算机、金融等相关专业;211或985优先2. 有2年以上银行运营分析工作经验,信用卡行业经验优先;3. 至少精通SQL/Python/SAS其中之一,并能运用上述工具独立完成数据分析工作;4. 精通常用的数据分析方法,能快速的构建问题框架和分析框架;5. 良好的沟通能力和团队协助能力;
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
岗位职责: 1、产品运营策划:负责产品运营策划工作,根据市场需求和竞争情况进行市场调研,协助确定产品定位、目标用户群体、功能需求和产品路线图,制定产品运营方案,并进行方案实施的相关工作。 2、用户分析与洞察:负责数据分析和用户调研,深入了解用户需求和行为特点,挖掘用户洞察并提出相应的产品改进和优化建议。 3、数据分析与效果评估:负责产品运营指标体系制定,对产品运营数据进行监测和分析,并提出相应优化方案。A/B测试等方法验证效果,并根据反馈结果进行持续优化。 4、运营数据报告与沟通:负责制作运营数据报告,向上级汇报产品运营情况、效果评估和改进计划。同时与团队成员、合作伙伴等进行有效沟通,推动项目顺利进行。 任职要求: 1、教育程度:计算机、市场营销相关专业;本科及以上学历。 2、工作经验:具备5年及以上专业工作经验 ,2年以上彩票行业工作经验。 3、知识:具备相关的产品管理、市场营销、商务管理等领域的专业知识;掌握市场/用户/需求研究、产品生命周期管理、产品运营等知识,了解彩票市场发展趋势 掌握与岗位工作相关的运营体系知识。 4、技能:熟练使用办公软件,掌握文档编写技能;具备一定的数据分析能力,能够熟练使用数据挖掘和分析工具(如Excel、SQL、Python等)进行数据处理和解读,并根据数据结果制定相应的产品优化策略。善于从用户角度思考问题,深入了解用户需求和行为特点,并能够提出相应的产品改进建议以提升用户体验。 5、核心能力素质:具有较强的学习能力、创新能力、产品需求识别能力和把控能力、逻辑思维能力、团队协作能力、沟通协调能力、解决问题能力、抗压能力,具备求知欲、责任心、进取心、钻研精神、严谨等素质。
-
工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
岗位职责: Job Title: 数据中心运维工程师 Operations Engineer of Data Center Department: Data Center (DC), Information Technology Department (ITD), HKUST(GZ) Job ID: Job Posting Details Duties 1. 负责学校数据中心整体的管理,确保数据中心的安全稳定运行 2. 负责学校数据中心机柜资源管理、服务器托管管理、综合布线管理 3. 负责学校数据中心人员、物资进出管理、巡检管理、故障处理、数据机房随工管理 4. 负责学校数据中心相关的应急演练管理 5. 负责学校数据中心运维的文档资料、运维工具的管理和定期检验 6. 负责学校数据中心运维自动化的规划、使用,提高运维效率,降低风险 7. 负责与学校相关部门协同供电供冷等基础设施管理、能耗管理 任职要求: Qualification Requirements 1. 大学本科或以上学历,计算机、网络工程、自动化、电子信息、机电或暖通类工程等相关专业; 2. 5年以上数据中心运维管理工作经验,有PMP证书;有中大型数据中心运维经验者优先; 3. 熟悉包括高压/低压/UPS/柴油发电/暖通空调/给排水/消防/安防/门禁/监控等系统的运行维护;掌握设施、电力、暖通空调、消防等方面专业知识; 4. 除数据中心运维经验外,具备数据中心规划设计、工程实施等相关经验者优先考虑; 5. 了解TIA-942、GB/T 50174-2017等数据中心相关标准;了解ITSM相关理念及知识,包括ITIL/ISO 20000等标准,事件/变更/问题等主要流程知识等; 6. 具备CAD图纸智能化专业读图能力。具备良好写作能力,能根据学校管理要求、数据中心运维需求、需求部门的需求,编制和制定各类表单记录、报告、方案等材料; 7. 具备流畅的表达和沟通能力、团队合作精神及主动服务的责任心。 This is a Mainland appointment, and the appointee will be offered a contract by HKUST(GZ) entity in accordance with the Mainland labor laws and regulations. Starting salary will be commensurate with qualifications and experience. Application Procedure In support of a green work environment, we accept applications submitted online only. To apply, please register and log in via this link: https://career.hkust-gz.edu.cn/en/career and search for the opening by Job ID or Job Title. Applicants should include a Resume in their applications, and could check their application status via the recruitment website. We thank applicants for their interest but advise only shortlisted candidates will be notified of the result of the application. In exceptional circumstances, for example unsuccessful application, please contact Human Resources Department at ********************. (Information provided by applicants will be used for recruitment and other employment-related purposes only.) HKUST (GZ) is an equal opportunities employer and is committed to our core values of inclusiveness, diversity, and respect.
-
数据仓库主题模型建设 数据仓库汇总模型建设 数据集市建设