-
岗位职责: 1.负责公司业务系统数据库的性能维护、安全性管理; 2.负责公司数据可靠性维护、数据备份和数据容灾; 3.对开发项目提供数据库技术支持; 4.负责数据库运维自动化脚本编写。 任职要求: 1.计算机、软件相关专业本科及以上学历; 2.3-5年相关工作经验; 3.较强的沟通学习能力,对技术有热情,有能力直接跟踪和学习最新的技术和知识; 4.有python或者shell编程能力; 5.有oracle、mysql、mongodb、hadoop至少一种运维能力。
-
职位职责: 1、在对产品增长业务理解的基础上,负责增长相关数据管理工作,跟进数据采集、核心指标构建及看板搭建和维护; 2、在数据建设的基础上进行线索增长分析,并进行线索质量评估,分析输出相应的优化策略,并跟进增长动作落地及效果评估; 3、主动进行产品功能及应用场景分析探查,通过跟踪和监控重点数据,发现潜在的问题与机会,给出数据支持、分析报告、问题解决方案建议,为业务决策提供数据支撑。 职位要求: 1、本科及以上学历,计算机科学、数理统计、数学、经济学等相关专业优先; 2、具备一定的数据分析工作经验,有过ToB商业化、产品相关分析经验,有一定行业背景,深度参与过新业务增长加分; 3、熟练掌握SQL、Python/R等数据分析工具和编程语言,熟悉Hadoop、Hive、Flink等大数据相关技术应用,能够高效地进行数据提取、清洗和分析; 4、熟练掌握数理统计方法,逻辑性好; 5、具备严谨的逻辑思维能力和强烈的好奇心,能够深入挖掘数据背后的价值;具备良好的沟通能力和团队合作精神,能够与不同部门的人员协作完成线索增长和评估任务; 6、有较强的学习能力和自我驱动力,能够快速适应不断变化的业务需求和数据分析技术;敢于表达观点,能独立负责具体项目完整分析,拿结果。
-
职位职责: 1、在对产品增长业务理解的基础上,负责增长相关数据管理工作,跟进数据采集、核心指标构建及看板搭建和维护; 2、在数据建设的基础上进行线索增长分析,并进行线索质量评估,分析输出相应的优化策略,并跟进增长动作落地及效果评估; 3、主动进行产品功能及应用场景分析探查,通过跟踪和监控重点数据,发现潜在的问题与机会,给出数据支持、分析报告、问题解决方案建议,为业务决策提供数据支撑。 职位要求: 1、本科及以上学历,计算机科学、数理统计、数学、经济学等相关专业优先; 2、具备一定的数据分析工作经验,有过ToB品相关增长分析、具备一定行业背景、深度参与过新业务增长者加分; 3、熟练掌握SQL、Python/R等数据分析工具和编程语言,熟悉Hadoop、Hive、Flink等大数据相关技术应用,能够高效地进行数据提取、清洗和分析; 4、熟练掌握数理统计方法,逻辑性好;有一定数据挖掘的基础,掌握线索评估的具体流程和方法,并能灵活运用这些方法进行线索增长分析; 5、具备严谨的逻辑思维能力和强烈的好奇心,能够深入挖掘数据背后的价值;具备良好的沟通能力和团队合作精神,能够与不同部门的人员协作完成线索增长和评估任务; 6、有较强的学习能力和自我驱动力,能够快速适应不断变化的业务需求和数据分析技术;敢于表达观点,能独立负责具体项目完整分析,拿结果。
-
职位描述: 1、对无人车 3D 点云按照标准进行标注,包括不限于3D点云框标注,3D点云语义分割标注等; 2、按计划完成数据标注任务,保证标注效率和标注质量; 3、及时发现数据问题、工具问题及标注问题,形成正向反馈。 岗位要求: 1、***大专及以上学历,熟悉计算机的使用; 2、沟通和表达顺畅,认真负责有耐心; 3、有安全保密意识,不传播工作内容; 4、具有地图或点云标注经验者优先。 工作时间: 周末双休。 9~6或者10~7根据季节调整。 入职缴纳五险一金。
-
岗位职责: 1、业务数据分析、调研及数据采集; 2、大数据平台的数据清洗、数据转换、数据存储; 3、持续跟踪大数据平台运行情况,监控数据同步链路,处理各类异常和故障; 4、数据治理相关开源项目产品的部署安装、性能调优和监控; 5、参与集团数据标准制定与规范建设; 6、完成集团数据中台及协助与支持各数源方按照相关数据标准与规范完成数据治理各项制度的落地及执行效果评估(包括元数据、主数据、数据标准、数据质量、数据安全、数据资产管理等)。 任职要求: 1、熟悉Oracle、MySQL等相关数据库及相关配套工具,熟悉SQL语言; 2、熟悉java,熟悉Linux操作系统; 3、熟悉Mapreduce、Redis、Kafka、Flink、spark等大数据组件的应用场景和配置规则; 4、了解大数据处理的流计算、分布式文件系统、分布式存储等相关技术; 5、了解容器、虚拟化、微服务框架等相关技术; 6、能接受出差,沟通能力良好,能够独立排查和处理问题。 7、具有ETL相关工具的实施、维护和使用经验或具有阿里云大数据工程师ACP认证证书者优先。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
岗位职责: 1.负责大数据项目的开发、维护等工作,完成大数据相关的数据架构规划、数据建模及大数据产品研发工作; 2.负责各种埋点数据与业务数据的采集、清洗、整合和大数据的分布式存储、ETL加工; 3.负责大数据类产品的系统分析与架构设计,配合产品经理完成产品的快速研发与交付; 4.负责实时数仓、离线数仓的建设与演进,实时业务开发、BI系统、报表平台、大数据平台等的建设。 岗位要求: 1.本科及以上学历, 1年及以上工作经验,具备大数据开发工作经验,熟悉Hadoop/Spark/Flink等分布式计算平台。 2.扎实可靠的编程能力,精通Python/C/C++/Go/Java中的至少一门编程语言; 3.具备良好的数据结构、算法、操作系统、数据库与计算机网络基础; 4.具备良好的分析解决问题能力,能独立承担任务,有系统进度把控能力。 责任心强,良好的对外沟通和团队协作能力,主动好学。
-
工作职责 1、本科以上学历 2、3年及以上大数据开发/架构经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验,有互联网公司或者金融保险企业级数仓建设经验优先 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等 3、精通SQL、熟悉Shell、具备海量数据加工经验,精通Hive/Spark/Flink等大数据计算框架 4、具备实时数据仓库经验,熟悉Kafka/Impala/Kudu/ClickHouse/Doris等大数据开源技术,具有Java/Python编程经验者优先 任职要求 1. 负责数仓领域模型的设计开发,参与离线/实时数仓建设; 2. 负责数据平台上的数据处理流程设计、开发与维护与优化; 3. 参与数据治理及数据相关项目,制定合理的工作计划,并在执行过程中管理风险。
-
工作职责 1.本科以上学历。 2.具有3年以上中大型系统的研发和架构经验,扎实的Java基础,熟悉后端编程语言 3.具有高并发,微服务架构、多线程开发经验,具备良好的识别和抽象设计成通用框架及模块的能力 4.具有数据类应用产品开发经验者优先 5.具有保险领域从业经验,门户系统开发经验者优先 6.具有开发经验者优先 任职要求 1. 负责各类数据应用、算法工程化的项目落地,包括决策引擎、数据可视化与服务平台、各类数据及AI产品服务等,能够独立承接项目并进行良好的系统设计和代码实现; 2. 负责持续优化应用架构,提升算法工程效率,提高系统在高并发高流量环境下的容错能力,保证系统的高可用性; 3. 深入理解业务需求,理解关键问题和决策,对所负责的领域系统给出专业合理方案,促进高效达成。
-
工作职责 1. 数据面性能测试工具(spate)研发; 2. LR-GW 研发; 3. EP-GW 研发; 4. L4LB-GW 研发。 任职要求 1. 熟悉Linux操作系统下C/C++开发,能运行常见工具定位调试问题代码; 2. 熟悉Linux内核网络协议栈,有内核开发经验; 3. 熟悉路由器/交换机工作原理,熟悉NAT、VPN、负载均衡、SDN、NFV、Overlay等网络技术; 4. 熟悉Openstack/Cloudstack等云平台,有OVS/OVS-DPDK等开发经验者优先; 5. 熟悉DPDK、VPP等,有用户态协议栈开发经验者优先; 6. 良好的沟通与团队协作能力。
-
工作职责 1、负责规划和设计数据相关产品,制定产品的长期发展路线图; 2、深入了解企业数据管理的需求,与业务部门紧密合作,提供有效的数据解決方案; 3、主导数据产品的需求调研、分析和文档撰写,确保产品需求清晰明确; 4、协调开发、测试、运维等团队,推动产品的开发和上线,保证项目按时交付; 5、跟踪产品上线后的使用情况,收集用户反馈,持续优化产品功能和用户体验; 6、主动深入业务,理解业务运作逻辑,负责提炼或者对接业务数据需求,包含数据体系搭建、数据指标统计规则整理等,协调业务方和数据研发,通过工具、流程让数据供应做到及时、准确; 7、负责数据分析,包含用户分析、运营分析等,为业务方持续提供数据分析思路和解决方案支持。运用各类数据分析技术,实施深度数据诊断,并能沉淀关键分析思路,协助推动产品优化迭代。 任职要求 1、5年以上数据相关工作经验,3年以上数据产品经理工作经验优先,本科及以上学历,计算机、统计学、管理等相关专业; 2、熟练使用Axure等产品设计工具,熟练使用SQL语言,熟练使用PPT、EXCEL、WORD等办公软件; 3、优秀的数据分析能力,逻辑思维能力强; 有充分的数据敏感度,能从海量数据表现中提炼核心结果; 4、良好的表达能力、分析问题和解决问题能力、快速学习能力、沟通协调能力及团队精神; 5、有数据统计工具/策略产品/商业数据服务/AIGC相关产品工作经验者优先。
-
岗位职责: 1、使用建模工具进行信用模型及反欺诈模型开发,包括数据准备、建模及数据分析、模型的选取与优化、模型验证等工作; 2、对海量业务数据进行分析,深度挖掘内部数据,构建风控指标体系并具备开发特征库及解释相应衍生变量、规则的能力; 3、熟悉风控审批、额度、定价策略的制定方法及相应建模流程; 4、针对不同金融机构和业务给出相应的风控建模方案,向客户进行阐释并参与实施; 5、针对客户痛点进行业务引导并提供技术支持; 6、具备探索新业务场景的能力与热情,对于知识与技术向新场景迁移和应用有独立的见解。 岗位要求: 1、三年以上相关领域工作经验,统计、数学、计算机、金融工程等相关专业硕士及以上学历; 2、至少能熟练运用SAS/R/Python中的一种进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 3、掌握逻辑回归、决策树、机器学习等建模方法,了解算法的原理; 4、拥有银行/互金/消金等金融机构数据分析、策略开发以及建模工作经验者优先; 5、具备独立思考能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强; 6、有较强的责任心及抗压能力。
-
工作职责: 1、对接企业管理、运营侧的用户数据需求,对数据需求进行分析归纳,输出需求文档 2、基于业务需求,配合业务完成业务流程及业务指标梳理,参与KPI指标设计,撰写需求文档PRD,协助数据团队完成相关数据报表、数据服务及BI看板的设计与开发; 3、有良好的用户需求分析把握能力,能够独立完成需求调研,捕获用户需求痛点,扩展需求,挖掘潜在需求 任职资格: 1、至少3年以上需求分析或产品设计经验 2、了解保险行业业务,具有保险行业数据中台、数据仓库、数据平台、数据应用、数据治理项目经验者优先 3、具备较强的需求分析、产品设计能力、文档撰写能力 4、有数据分析经验,数据敏感性高,熟悉SQL语言、有数据类项目经验优先; 5、候选人需具备较强的逻辑、沟通与组织能力和抗压能力,有项目协调/团队管理的经验优先
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
岗位职责: 1、负责国内酒店业务基础信息业务,目标保证信息准确&有效、信息运营提升转化率 2、通过数据化指导运营团队,分析并优化业务流程,并对人效进行持续改进 任职要求: 1、3年以上工作经验,本科以上学历 2、OTA/地图类/电商POI类产品优先,有基础信息/前端产品工作经验 3、能理清数据传输、加工过程,能观测目标、数据分析找出问题, 2、长期耐心且稳定