-
职位职责: 1、建设与维护隐私和数据安全体指标体系,完成系统化指标监控及归因分析,为内部数据安全治理提供输入; 2、负责搭建数据安全治理看板,从顶层视角多维度的展示安全治理水位,并进行内部业务线的横向比较; 3、针对内部隐私安全产品提供数据分析服务,支持产品运营和数据安全管理策略落地工作; 4、支持内部数据安全治理专项,为项目提供数据分析结果,编制数据安全风险报告。 职位要求: 1、本科或以上学历,计算机、数学、统计、管理信息系统、运筹学等相关专业优先; 2、熟悉SQL,了解数据仓库,Spark、Hive等大数据处理工具或框架,可使用Tableau、Power BI等可视化工具;3年以上数据分析工作经验; 3、具有优秀的风险洞察能力,能够通过数据讲出好故事,同时具备数据指标体系拆解思路和看板交互设计能力; 4、逻辑清晰、执行力强、具备良好的学习能力和自驱力,善于独立思考,有一定抗压能力。
-
职位职责: 1、建设与维护隐私和数据安全体指标体系,完成系统化指标监控及归因分析,为内部数据安全治理提供输入; 2、负责搭建数据安全治理看板,从顶层视角多维度展示安全治理水位,并进行内部业务线的横向比较; 3、针对内部隐私安全产品提供数据分析服务,支持产品运营和数据安全管理策略落地工作; 4、支持内部数据安全治理专项,为项目提供数据分析结果,编制数据安全风险报告。 职位要求: 1、本科或以上学历,计算机、数学、统计、管理信息系统、运筹学等相关专业优先; 2、熟悉SQL,了解数据仓库,Spark、Hive等大数据处理工具或框架,可使用Tableau、Power BI等可视化工具;3年以上数据分析工作经验; 3、具有优秀的风险洞察能力,能够通过数据讲出好故事,同时具备数据指标体系拆解思路和看板交互设计能力; 4、逻辑清晰、执行力强、具备良好的学习能力和自驱力,善于独立思考,有一定抗压能力。
-
岗位职责: Job Title: 数据中心运维工程师 Operations Engineer of Data Center Department: Data Center (DC), Information Technology Department (ITD), HKUST(GZ) Job ID: Job Posting Details Duties 1. 负责学校数据中心整体的管理,确保数据中心的安全稳定运行 2. 负责学校数据中心机柜资源管理、服务器托管管理、综合布线管理 3. 负责学校数据中心人员、物资进出管理、巡检管理、故障处理、数据机房随工管理 4. 负责学校数据中心相关的应急演练管理 5. 负责学校数据中心运维的文档资料、运维工具的管理和定期检验 6. 负责学校数据中心运维自动化的规划、使用,提高运维效率,降低风险 7. 负责与学校相关部门协同供电供冷等基础设施管理、能耗管理 任职要求: Qualification Requirements 1. 大学本科或以上学历,计算机、网络工程、自动化、电子信息、机电或暖通类工程等相关专业; 2. 5年以上数据中心运维管理工作经验,有PMP证书;有中大型数据中心运维经验者优先; 3. 熟悉包括高压/低压/UPS/柴油发电/暖通空调/给排水/消防/安防/门禁/监控等系统的运行维护;掌握设施、电力、暖通空调、消防等方面专业知识; 4. 除数据中心运维经验外,具备数据中心规划设计、工程实施等相关经验者优先考虑; 5. 了解TIA-942、GB/T 50174-2017等数据中心相关标准;了解ITSM相关理念及知识,包括ITIL/ISO 20000等标准,事件/变更/问题等主要流程知识等; 6. 具备CAD图纸智能化专业读图能力。具备良好写作能力,能根据学校管理要求、数据中心运维需求、需求部门的需求,编制和制定各类表单记录、报告、方案等材料; 7. 具备流畅的表达和沟通能力、团队合作精神及主动服务的责任心。 This is a Mainland appointment, and the appointee will be offered a contract by HKUST(GZ) entity in accordance with the Mainland labor laws and regulations. Starting salary will be commensurate with qualifications and experience. Application Procedure In support of a green work environment, we accept applications submitted online only. To apply, please register and log in via this link: https://career.hkust-gz.edu.cn/en/career and search for the opening by Job ID or Job Title. Applicants should include a Resume in their applications, and could check their application status via the recruitment website. We thank applicants for their interest but advise only shortlisted candidates will be notified of the result of the application. In exceptional circumstances, for example unsuccessful application, please contact Human Resources Department at ********************. (Information provided by applicants will be used for recruitment and other employment-related purposes only.) HKUST (GZ) is an equal opportunities employer and is committed to our core values of inclusiveness, diversity, and respect.
-
岗位职责: 1、针对个人及小微企业信贷业务,以促进业务发展、风险管控为目标,进行大数据分析、挖掘,形成有效的规则、模型; 2、负责客户挖掘、授信、流失、预警等信贷业务生命周期数据分析及模型开发; 3、负责信贷客户风险成因分析; 4、负责信贷业务数据分析、模型效果监控。 任职要求: 1、本科及以上学历,5年以上相关工作经验; 2、熟悉个人、小微企业信贷业务; 3、熟练掌握数据清洗、缺失处理方法; 4、熟练掌握逻辑回归建模方法; 5、熟练掌握机器学习建模方法,能理解并解释使用的机器学习算法; 6、掌握模型验证方法; 7、掌握模型效果、稳定性等模型监控方法; 8、善于归纳总结,主动跟踪学习最新的数据分析、模型开发技术、方法。
-
工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。
-
25k-35k·13薪 经验5-10年 / 不限科技金融,人工智能服务 / 上市公司 / 500-2000人职位描述: 1、负责数据库架构设计及实施,保证数据库服务的高可用; 2、制定并优化数据库监控策略,提早发现并解决数据库可能出现的问题; 3、建立完善的数据库及备份运维和管理流程,数据库维护管理体系; 4、负责数据库运维过程中的问题排查及快速解决问题。 5、跟踪调研数据库领域的新技术新产品,根据业务发展需求设计解决方案。 职位要求: 1、3 年以上 DBA 相关工作经验(MySQL、Oracle、PostgreSQL 等),互联网工作经验更佳。 2、深入了解 mysql postgresql mongodb oracle 等其中一项主流关系型数据库体系架构; 3、精通 MySQL 高可用方案,灾备方案。能够独立设计并实施数据库高可用架构方案。 4、熟悉 MySQL 高并发,有丰富的故障处理和性能优化经验。熟悉常用的监控工具。 5、熟悉存储相关服务,如分布式系统、ES、redis cluster、fastdfs、gfs等。 6、有大规模 MySQL 、Redis、MongoDB等数据库运维经验者优先。 7、较强的学习能力,良好的沟通能力,熟悉部门间协调及优秀的工作推动能力,工作积极主动,有服务意识和团队协作精神。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
岗位职责: 1.负责到家事业群内服务于经营管理场景和业务运营场景的数据产品规划和落地,并定期做好行业趋势分析、客户研究、业务线调研与分析、数据资产盘点等工作; 2.负责探索和建设与业务团队之间的数据协同机制,推动数据体系的良性循环,提升数据和信息的流通效率,提升数据和信息的价值。 岗位基本要求: 1.本科及以上学历,有4年及以上管理驾驶舱类产品、BI工具产品的工作经验,熟悉数据集、看板(仪表板)、即席分析等BI工具的设计和运营,对数字化管理、数据可视化有自己的理解; 2.熟悉零售、电商、O2O等业务模式,了解业务常用的分析方法; 3.沟通能力强,具有良好的团队合作精神,有积极的成长意愿,具备主动学习的能力; 4.具有较强的责任心、较好地产品思维、严谨的逻辑,具备具有良好的解决问题的能力。 具备以下优先: 1.有大型复杂业务的数据系统建设经验者优先; 2.有管理驾驶舱类产品建设经验者优先; 3.经历过完整的数据分析相关项目、有完整产出过可视化分析报告的同学优先,有BP(业务支持)过公司内部业务团队的同学优先; 4.统计学、数学、计算机等相关专业优先。 岗位亮点: 新团队空间大,团队氛围好,新人入职有导师辅导,对接到家多个业务线、有助于“业务感”的形成和培养。
-
岗位职责: 1. 使用SQL等数据抓取工具从各种数据源中提取数据,并进行数据清洗和整理。 2. 运用统计学和数据分析方法对数据进行分析,发现趋势、模式和关联性。 3. 利用数据可视化工具(如Tableau、Power BI等)创建仪表盘、报告和可视化图表,以向利益相关者传达数据洞察。 4. 协助团队成员进行数据分析项目,提供支持和建议。 5. 监测和评估数据质量,确保数据的准确性和完整性。 6. 跟踪行业趋势和竞争对手的数据,提供市场洞察和建议。 岗位要求: 1. 2-3年相关工作经历。 2. 熟练掌握SQL等数据抓取工具,能够编写和优化复杂的查询语句。 3. 具备数据清洗和整理的技能,能够处理大量数据并确保数据的准确性。 4. 熟悉统计学和数据分析方法,能够运用这些方法解决实际问题。 5. 熟练使用数据可视化工具,能够将数据转化为易于理解和传达的可视化图表和报告。 6. 对商业和旅游行业有浓厚的兴趣,了解相关行业的趋势和挑战。 7. 具备良好的沟通和团队合作能力,能够与不同部门和利益相关者进行有效的合作。 8. 具备解决问题和分析能力,能够快速理解和解决复杂的数据相关问题。
-
【职责描述】: 1.结合微博平台特征与资源优势,为品牌广告销售提供策划支持,为客户提供全面的营销解决方案; 2.参与客户提案沟通,支持营销方案执行落地; 3.整理及总结不同行业客户的特性,产出 3C/日化/食品饮料等行业的行业营销研究报告; 4.结合业务需求输出模块化营销策略,如行业整合营销通案、事件营销、社会化营销及日常传播的策略规划; 【岗位要求】: 1.大学本科以上学历,3 年及以上广告公司或媒体策划类相关从业经历; 2.逻辑思维能力和创意能力强,文字功底好,熟练运用 PPT 软件; 3.熟悉广告、网络、媒体运营模式,有较强的资源整合学习能力; 4.出色的写作、概念梳理能力,熟悉策划工作流程,并掌握营销工具,能迅速产出营销概念; 5.出色的语言表达能力,并能熟练得进行现场提案或案例讲解; 6.具有相关行业数字策划经验者优先考虑,如 3C、日化、食品饮料、家电及鞋服行业; 7.能承担工作压力,并合理自我调节工作节奏; 8.良好的团队合作精神以及人际沟通能力; 9.热爱互联网媒体行业,富有工作激情。
-
职责描述: 1、协助上级制定客群及业务规划的短、中、长期策略,定期开展专项客群、业务、资产规划等分析。 2、根据客户维护策略制定年度维护计划及服务推广计划,增加收入。 3、持续收集并分析同业经验数据,并根据信息总结对业务的影响及建议。 4、根据市场变化,及时调整重点项目策略,检视部门推广项目进度、运作情况和效果,落实并追踪预算实行情况。 5、负责业务领域核心数据体系的规划设计,并推动数据采集及数据口径规范,搭建数据服务产品,利用可视化工具输出动态仪表盘,赋能业务。 6、通过业务数据分析及时监测业务健康度,并针对异常开展专项深度分析,发现问题并提供合理业务建议。 任职要求: 1、本科或以上学历,数学、统计学、商业分析等相关专业背景; 2、5年以上数据分析工作经验,有信用卡、金融或头部互联网数据分析项目相关经验; 3、具备金融行业或互联网企业前瞻性的整套数据管理、数据服务等解决方案的规划和落地经验尤佳; 4、掌握SQL、以及Python/SAS/R语言(至少一种)的数据分析处理技能; 5、优秀的思维逻辑性、语言表达能力; 6、有一定的市场敏锐度,商业嗅觉敏锐者优先。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
职位职责: 1、建设与维护隐私和数据安全体指标体系,完成系统化指标监控及归因分析,为内部数据安全治理提供输入; 2、负责搭建数据安全治理看板,从顶层视角多维度展示安全治理水位,并进行内部业务线的横向比较; 3、针对内部隐私安全产品提供数据分析服务,支持产品运营和数据安全管理策略落地工作; 4、支持内部数据安全治理专项,为项目提供数据分析结果,编制数据安全风险报告。 职位要求: 1、本科或以上学历,计算机、数学、统计、管理信息系统、运筹学等相关专业优先; 2、熟悉SQL,了解数据仓库,Spark、Hive等大数据处理工具或框架,可使用Tableau、Power BI等可视化工具;3年以上数据分析工作经验; 3、具有优秀的风险洞察能力,能够通过数据讲出好故事,同时具备数据指标体系拆解思路和看板交互设计能力; 4、逻辑清晰、执行力强、具备良好的学习能力和自驱力,善于独立思考,有一定抗压能力。