• 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 20k-35k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    职位描述 1. 负责公司大数据业务的运行维护与底层优化,保障大数据平台服务的稳定 2. 负责大数据运维平台建设,实现大数据自动化部署系统,监控系统,巡检系统的开发 3. 负责大数据日常问题定位及故障处理 岗位要求: 1. 3年以上大数据业务维护经验。 2. 对大数据平台有比较深入的了解,熟悉一个或多个大数据组件,如:hadoop/hbase/spark/flink/hive/kafka/flume/zookeeper等,并有实际维护经验。 5. 熟悉OLAP组件Clickhouse,StarRocks等,有OLAP平台运维经验者优先。 3. 熟悉python,java,go等任意一门编程语言,能熟练编写shell脚本。 4. 熟悉linux操作系统,熟练掌握各种linux命令。 6. 有良好的沟通能力、团队协作能力。 7. 有大规模hadoop集群运维经验者优先。
  • 20k-35k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    工作职责: 1. 负责公司大数据业务的运行维护与底层优化,保障大数据平台服务的稳定 2. 负责大数据运维平台建设,实现大数据自动化部署系统,监控系统,巡检系统的开发 3. 负责大数据日常问题定位及故障处理 任职资格: 1. 3年以上大数据业务维护经验。 2. 对大数据平台有比较深入的了解,熟悉一个或多个大数据组件,如:hadoop/hbase/spark/flink/hive/kafka/flume/zookeeper等,并有实际维护经验。 5. 熟悉OLAP组件Clickhouse,StarRocks等,有OLAP平台运维经验者优先。 3. 熟悉python,java,go等任意一门编程语言,能熟练编写shell脚本。 4. 熟悉linux操作系统,熟练掌握各种linux命令。 6. 有良好的沟通能力、团队协作能力。 7. 有大规模hadoop集群运维经验者优先
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 20k-40k·13薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    工作职责: 1)负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2)负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3)负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4)深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5)与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1)5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2)具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3)具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4)具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5)有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
  • 15k-25k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1.异常分析处理,快速恢复应用系统故障,确保业务正常进行; 2.主动预防,分析应用的运行趋势,找出潜在问题并防止其发生; 3.从运维角度评估应用架构可用性、变更风险,确保运行稳定; 4.梳理设计实施应用监控,建立完善的应用监控体系; 5.自动化运营脚本或工具开发,提升工作效率。 任职要求 1.计算机相关专业,大学本科及以上学历; 2.责任心强,工作积极主动,有较好的沟通协调能力,有良好的心理素质; 3.有自驱学习能力,具备较强的问题分析能力和解决能力; 4.一年以上软件开发或者运维工作经验,有金融系统运维经验优先; 5.熟悉以下技术中的两种或以上: 1)Oracle,PostgreSQL或者Mysql数据库性能优化技术; 2)Linux的操作、维护,了解Linux内核性能优化原理; 3)SpringBoot等微服务平台架构以及应用程序的开发技术及流程,或者Python、Go等语言开发技术; 4)Tomcat,Nginx或国产信创应用中间件的配置和维护; 5)k8s容器平台或者云计算、云网络、云存储等运维优化能力; 6)Hadoop,Hive,Spark或者Flink等大数据相关运维优化能力; 7)AI相关技术的运维优化能力。
  • 15k-20k 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    大数据销售 1. 负责中国移动客户大数据/网络IT业务市场拓展工作;或负责基于大数据解决 方案市场行业客户; 2. 根据公司业务发展需要、结合公司产品特点及市场状况,确定产品销售策略及业务拓展计划,开拓新的商业机会并销售创新产品和服务; 3. 服务和支持现有行业客户和最终用户,了解客户痛点,熟悉客户需求,制作以客户需求为导向的销售方案,完成业务谈判、确保业绩达成; 4. 负责渠道建设、渠道合作,拓展新客户关系; 5. 建立顺畅的客户沟通,落实订单签署和项目回款,创建长期、良好、稳固的客户关系; 6. 客户项目跟进管理,并协调内、外部资源为项目成功服务。 任职条件: 1. 本科及以上学历,计算机相关专业; 2. 5年以上面向中国移动客户销售经验;或某行业销售经验积累超过5年; 3. 熟悉中国移动客户业务,能独立定制客户方案,并积极寻求让客户满意的策略; 4. 优秀的人际交往和协调能力,高层沟通的经验和解决问题的能力; 5. 极强的责任心、执行力,富有激情,能够承受较大的工作压力; 6. 具有广阔的视野,对行业发展有自己的理解,优秀的敬业精神和团队合作精神; 7. 具有较强的抗压能力。
  • 8k-14k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    一、公司简介 彩讯股份(创业板股票代码:300634)是一家软件互联网上市公司,是协同办公、 智慧渠道、云和大数据领域的龙头企业。拥有五地研发中心和遍布全国的运营网络,员工超过 3000 人。 公司坚持“以大场景运营效果为导向,全面数字化、智能化”的发展战略,持续加大在人工智能等领域的投入,将成为中国领先的智能数字化企业。 二、项目介绍: 中国移动云盘是中国移动面向所有用户推出的一款安全、智能、不限速、移动用户免流量的产品。产品涵盖存储备份、多端同步、在线管理、群组分享四大核心能力。云盘是继语音、短信、流量之后的“新基础服务”。 三、岗位介绍: 【岗位职责】: 1、工作内容:故障处理、问题跟踪及时通报、系统巡检及系统优化、应用系统安全加固、及时发现/处理和彩云自研平台问题。 2、监控告警支撑:收集整理主机和业务监控项需求,接入统一监控平台实现自动监控告警;故障告警的跟进和处理 3、系统优化:对所维护服务进行脚本编写自动的巡检、自动化故障分析及服务恢复; 4、重大节假日、重要保障活动按要求值班。 5、其他支撑工作:根据项目安排做好其他运维支撑工作。 【岗位要求】: 1、学历要求:*****本科及以上学历(学信网可查),重本学历优先; 2、熟悉TCP/IP协议,熟悉Windows,熟练掌握liunx操作系统维护; 3、熟悉nginx/apache/tomcat/php/ Zookeeper等应用服务的配置和优化; 4、熟悉容器化技术,对Docker、Keepalive和Docker Swarm集群或者 K8S、openshift有一定了解及一定的使用经验; 5、熟练shell/python任一脚本编程进行日常维护, 能利用awk和sed工具对日志进行分析与统计; 6、了解nagios/zabbix等常规的监控软件使用和配置; 7、了解高负载、高可用的服务器架构,熟悉memcached/redis等缓存中间件; 8、熟悉使用SVN/Git/Puppet/Ansible等自动化运维工具; 9、具备独立解决问题以及团队配合能力,良好的方案文档撰写能力以及沟通能力。 10、工作中善于使用AI工具,高效完成工作; 11、有开源作品或者技术博客,关注技术社区/论坛,有活跃足迹者优先。 四、薪酬福利与职业发展: 我们提供竞争力的薪资待遇和福利待遇,包括期权激励、五险一金、带薪年假、节假日福利、健康体检、培训及晋升机会等。 同时,我们还为员工提供广阔的职业发展空间,鼓励员工在工作中不断成长和进步。 我们的团队充满活力、激情和创新精神,致力于打造一个开放包容、信任互助的工作环境,并定期举行各种团队建设活动,增强彼此之间的沟通和理解。 期待您的加入,一起探索未来无限可能!想更多了解彩讯股份,欢迎进入:https://www.richinfo.cn
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 30k-45k·14薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 18k-25k 经验10年以上 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    "高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
  • 13k-18k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
  • 35k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。