-
职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。
-
工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
-
职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
职责描述: 1. 理解数据业务,负责数据平台核心数据资产内容的设计与开发工作,实现高质量数据的互通与共享 2. 负责数据仓库、数据集市的数据模型设计 3. 参与数据仓库ETL规则设计和开发 岗位要求: 1. 3年以上金融/互联网数据仓库建设经验。 2. 熟悉数据仓库建设方法论,熟悉数据仓库架构和模型设计。 3. 熟悉数据仓库领域知识和技能,包括但不局限于:元数据管理、数据质量管理等。 4. 精通ETL开发和SQL开发及SQL性能调优。 5. 良好的数据敏感度,能从数据中发现问题并解释,较强的数据和业务理解能力。 6. 具有良好的表达能力和沟通能力,态度积极,责任心强,思维清晰。 7. 具备统计学、数学和数据挖掘知识基础,精通数据挖掘方法论,有数据分析和建模经验者优先。
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
岗位职责: 1、对接并梳理业务需求,开发数据仓库模型,设计相关主题的事实表和维度表等; 2、负责数据仓库开发相关技术文档、技术标准、编码规范的制定; 3、负责数据治理、数据资产建设、模型集市建设等,并基于大数据平台完成各类统计和开发任务。 任职要求: 1、具有2年以上数据仓库(DW)、商务智能(BI)、大数据等方面的软件或项目开发经验; 2、精通SQL编程,熟悉Shell; 3、熟悉数据仓库模型和数据中台模型设计方法论,有实际搭建公司层级数仓的经验,有数据仓库性能优化的实战经验; 4、熟悉Flink或者阿里Blink框架,并有实际实时数仓开发经验; 5、具有扎实的数据库知识,熟悉关系型数据库; 6、需求理解能力强,拥有良好的分析和技术能力,并具备解决问题的能力; 7、有使用Hadoop生态有关大数据组件(Hive, Hbase, Spark等)经验,了解相关技术原理的优先; 8、有互联网公司或者保险金融相关行业数仓建设经验优先; 9、熟悉阿里云数据中台Dataworks、MaxCompute等产品,并有实际开发经验者优先。
-
职责描述: 1、负责生产系统的操作系统和中间件日常运维管理; 2、负责生产系统的软硬件环境配置部署,系统升级、系统扩容等; 3、数据库的日常维护,包含数据库的故障排查、性能优化、备份与恢复; 4、负责系统的容量管理、故障分析、性能优化等 任职要求: 1、至少熟悉一种监控系统搭建,如Zabbix、Prometheus等; 2、至少熟悉一种集群管理工具,如Ansible等; 3、有使用集成发布工具发布构建经验优先。如:Jenkins; 4、熟悉Linux操作系统,掌握容器化部署 docker、rancher、k8s 5、精通中间件 ES、redis、zookeeper、tomcat、Nginx等中间件系统的安装、配置、升级、故障诊断、性能调优 6、熟悉Python、Shell至少1种语言; 7、熟悉关系型和非关系型数据仓库的相关知识与技能; 8、熟悉天翼云、阿里云平台相关配置及服务优先; 9、具有国家承认的本科及以上学历、学位。
-
数据仓库主题模型建设 数据仓库汇总模型建设 数据集市建设
-
职务描述: 1. 负责榕树业务数据仓库的开发与优化 2. 基于Hive/Flink等平台建设离线/实时数据仓库 3. 负责数据模型的设计、etl的实施,etl性能优化以及相关技术问题解决 4. 负责面向业务的OLAP,报表,数据提取工具等开发工作 职位要求: 1. 熟悉大数据相关技术:Kafka/Flink/Clickhouse/Doris/Hadoop/Hive/Flume等; 2. 熟练使用 Java , Python, Go 语言中的一种或者多种; 3. 具备数据库系统理论知识, 掌握主流数据库管理和应用, 精通SQL; 4. 了解统计以数据挖掘,机器学习以及人工智能技术; 5. 有高性能分布式平台开发经验, 有金融行业经验优先。
-
工作职责: 1、负责企业风险数据仓库的设计、开发与性能优化; 2、将业务需求整理成数据需求,负责数据体系构建(数据接入、集市主题规划、数据治理、日常运维、BI体系)。 工作要求: 1、有数据仓库设计开发经验优先,有信贷相关经验优先; 2、熟练掌握SQL,有SparkSQL性能调优经验优先; 3、熟悉维度建模理论,实际主导过数仓项目者优先; 4、熟悉常用大数据组件,有实时数仓经验优先,有海量数据处理经验优先,有数据治理经验优先; 5、具有良好的沟通表达能力、理解能力及团队精神,责任心强,有一定的抗压能力,积极乐观。
-
运维工程师 工作职责: 1、负责公司服务器、网络设备等硬件设施的安装、配置、维护和管理,确保其稳定运行。 2、设计、开发和维护自动化运维脚本和工具,提高运维工作效率和质量。使用脚本语言(如 Python、Shell)编写自动化部署脚本,实现服务器软件的快速部署和配置更新。建立和完善运维自动化平台,集成监控、部署、配置管理等功能。 3、搭建和维护服务器及网络的监控系统,使用开源或商业监控工具(如 Zabbix、Prometheus 等)对系统资源(CPU、内存、磁盘 I/O、网络流量等)、服务状态(Web 服务、数据库服务等)进行实时监控并配置合理的告警机制。 4、负责 Kubernetes 集群的规划、部署和初始化配置。根据业务需求,搭建高可用、高性能的 K8s 集群,包括但不限于选择合适的节点数量、配置网络插件(如 Calico、Flannel)和存储插件(如 Ceph、NFS)。 5、负责公司外部项目部署交付(需能接受短期出差),包括自建k8s集群以及各种私有容器云平台上部署公司项目,编写和维护项目相关文档,包括但不限于集群架构图、部署手册、运维手册、故障处理指南等。 6、快速响应和处理各种系统、K8s集群和应用出现的故障。在发生故障时,能够迅速定位问题的根源,如网络故障、存储故障、应用代码问题等,并采取有效的解决措施,尽快恢复业务正常运行。制定和演练应急响应计划,包括灾难恢复、故障转移等场景。 任职要求: 1、本科及以上学历,计算机科学、信息技术或相关专业背景。 2、熟悉 Linux 常用命令和服务(如 Apache、Nginx、MySQL、Redis 等)的部署和优化。 3、熟悉网络基础知识,包括 TCP/IP 协议、路由交换技术、VLAN、VPN 等,具备网络故障排查能力。 4、深入理解 Kubernetes 的架构、原理、核心组件和资源对象(如 Pod、Deployment、Service、Ingress 等),具备丰富的 K8s 集群部署和运维经验。 5、熟悉容器技术,如 Docker,包括容器的创建、运行、网络和存储配置等。 6、掌握至少一种监控工具(如 Prometheus)和可视化工具(如 Grafana)的使用,能够构建有效的监控体系。 7、熟悉网络和存储相关知识,如 IPV4/IPV6、TCP/IP 协议、分布式存储原理等,能够解决 K8s 集群中的网络和存储问题。 8、具备一定的编程能力,熟练掌握至少一种脚本语言(如 Shell、Python),用于自动化运维任务。 9、具备良好的沟通能力和团队协作精神,能够与不同部门的人员有效沟通和协作。 10、具备较强的问题解决能力和抗压能力,能够在紧急情况下迅速、有效地解决问题。 11、具有较强的学习能力和自我提升意识,能够及时掌握新的运维技术和工具。 12、具有丰富的toB项目部署交付经验优先。
-
岗位要求 1)大专及以上学历,五年运维经验;具有良好的表达与沟通能力、责任心强、团队意识强; 2)能熟悉使用Linux常用命令; 3)熟悉ORACLE或MySQL数据库的使用,了解常用的优化方法; 4)了解常用的应用中间件; 5)熟悉Shell脚本、Pythor脚本的使用; 6)熟练K8S, docker 运维的优先考虑
-
一、公司简介 彩讯股份(创业板股票代码:300634)是一家软件互联网上市公司,是协同办公、 智慧渠道、云和大数据领域的龙头企业。拥有五地研发中心和遍布全国的运营网络,员工超过 3000 人。 公司坚持“以大场景运营效果为导向,全面数字化、智能化”的发展战略,持续加大在人工智能等领域的投入,将成为中国领先的智能数字化企业。 二、项目介绍: 中国移动云盘是中国移动面向所有用户推出的一款安全、智能、不限速、移动用户免流量的产品。产品涵盖存储备份、多端同步、在线管理、群组分享四大核心能力。云盘是继语音、短信、流量之后的“新基础服务”。 三、岗位介绍: 【岗位职责】: 1、工作内容:故障处理、问题跟踪及时通报、系统巡检及系统优化、应用系统安全加固、及时发现/处理和彩云自研平台问题。 2、监控告警支撑:收集整理主机和业务监控项需求,接入统一监控平台实现自动监控告警;故障告警的跟进和处理 3、系统优化:对所维护服务进行脚本编写自动的巡检、自动化故障分析及服务恢复; 4、重大节假日、重要保障活动按要求值班。 5、其他支撑工作:根据项目安排做好其他运维支撑工作。 【岗位要求】: 1、学历要求:*****本科及以上学历(学信网可查),重本学历优先; 2、熟悉TCP/IP协议,熟悉Windows,熟练掌握liunx操作系统维护; 3、熟悉nginx/apache/tomcat/php/ Zookeeper等应用服务的配置和优化; 4、熟悉容器化技术,对Docker、Keepalive和Docker Swarm集群或者 K8S、openshift有一定了解及一定的使用经验; 5、熟练shell/python任一脚本编程进行日常维护, 能利用awk和sed工具对日志进行分析与统计; 6、了解nagios/zabbix等常规的监控软件使用和配置; 7、了解高负载、高可用的服务器架构,熟悉memcached/redis等缓存中间件; 8、熟悉使用SVN/Git/Puppet/Ansible等自动化运维工具; 9、具备独立解决问题以及团队配合能力,良好的方案文档撰写能力以及沟通能力。 10、工作中善于使用AI工具,高效完成工作; 11、有开源作品或者技术博客,关注技术社区/论坛,有活跃足迹者优先。 四、薪酬福利与职业发展: 我们提供竞争力的薪资待遇和福利待遇,包括期权激励、五险一金、带薪年假、节假日福利、健康体检、培训及晋升机会等。 同时,我们还为员工提供广阔的职业发展空间,鼓励员工在工作中不断成长和进步。 我们的团队充满活力、激情和创新精神,致力于打造一个开放包容、信任互助的工作环境,并定期举行各种团队建设活动,增强彼此之间的沟通和理解。 期待您的加入,一起探索未来无限可能!想更多了解彩讯股份,欢迎进入:https://www.richinfo.cn
-
1)学信网可查本科学历; 2)网络系统、网络安全体系构架的规划设计、实施维护经验; 3)参与过机房网络设计和建设工作,并有组织审核、指导网络优化方案项目经验; 4)熟悉各类网络设备(路由器、交换机、防火墙)的工作原理和相关配置方法,精通 TCP/IP 架构原理,对 RIP、OSPF、EIGRP、BGP 等动态路由协议有深入了解,对 IPSECVPN、SSLVPN 等安全技术要有一定的了解; 5)具有CCIE认证资质者、有在银行总部或大型分支行设备、网络工作经验者优先; 6)工作责任心强、积极主动、具有团队精神,能承受较大压力。 职位福利:五险一金、免费班车、周末双休