• 20k-30k·13薪 经验1-3年 / 大专
    金融业 / 不需要融资 / 500-2000人
    Hbase运维工程师 职责描述: 1、负责数据集群/Hadoop/hbase等运维保障; 2、负责hbase平台各组件服务的监控及故障处理; 3、对hbase平台运维不断优化,提升数据产品的质量和响应速度; 任职要求: 1、一年以上大数据平台的运维相关运维经验,精于容量规划、架构设计、性能优化; 2、具备一定的开发能力,精通一门以上脚本语言(shell/python等),有java 和 scala 基础尤佳; 3、对hadoop原理有深刻认识,具备相关产品(MapReduce、HDFS、Hbase、Flume、Zookeeper、ES、Kafka)的应用经验,具备底层hadoop集群实际搭建及运维经验。 4、精通hadoop相关生态圈系统的搭建、管理、配置优化。 5、有Lindorm运维经验优先。 6、此岗位为合作方岗位。
  • 15k-30k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
  • 30k-50k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责私有化项目的售后技术支持工作; 2、负责处理私有化项目的告警、故障响应; 3、负责运维脚本的开发; 4、负责公司产品 BUG 的提交,与研发沟通解决相关问题; 5、收集与分析客户需求,并定期为客户进行系统巡检。 职位要求: 1、本科及以上学历,具有两年以上大型 IT 系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,具有很强的 Troubleshooting 能力; 3、熟悉Hadoop大数据生态,包括但不限于Hadoop、Hive、Spark、Hbase、Flink、Impala、Clickhouse、Redis、Kafka等组件; 4、至少使用过一种自动化部署工具:Ansible、Saltstack、Chef、Puppet、Terraform 等; 5、至少熟悉一种脚本语言:Shell、Python 等; 6、对云平台有一定的了解,有使用经验者优先; 7、熟悉 Docker、K8S/Istio 等容器技术和工具者优先; 8、具有良好的沟通、组织与协调的能力,有一定的抗压能力,能够接受出差。
  • 20k-35k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、作为客户统一技术入口,具备足够广度的行业知识和云产品经验,拜访客户进行技术交流或方案宣讲,主动挖掘痛点和需求,并能与高层进行有效沟通,形成一定的影响力; 2、能够进行行业分析和竞品分析,主动对客户痛点和诉求进行梳理分析,挖掘价值需求,对应到相应的云产品场景,推进云产品迭代和优化; 3、针对意向需求,进行客户引导和资源协调,组合云产品或技术能力,提供最优方案;推进方案决策,并具备项目管理能力,对方案落地进行跟踪和管控; 4、对项目进行提炼和总结,形成可复制的通用方案,形成云上方案能力,指导后续不同业务场景的解决方案输出。 任职要求 1、熟悉虚拟化技术及常见云计算框架,如KVM/Xen,OpenStack/CloudStack等; 2、熟悉负载均衡/各类网关/路由器/交换机/防火墙等网络产品; 3、具有服务器/网络/存储/DB/虚拟化/云计算/容灾备份/信息安全等相关配置和现场实施交付经验; 4、熟悉mangoDB/mysql/PG/HBase等数据库技术中的一种或多种,熟悉redis应用和管理; 5、能从应用/服务器/DB/存储/网络/数据中心等不同层面设计业务上云的服务架构,能够提供IaaS/PaaS不同层级的解决方案; 6、能够深入理解业务及业务发展动态,能够对业务进行需求分析及应用架构设计,针对云产品规划出云解决方案,针对云上架构进行优化设计; 7、熟悉大数据并发、高并发、高性能的分布式系统的设计、应用及调优; 8、具备良好的交流能力,了解和分析客户需求,引导最优的产品组合方案设计,协调沟通产品和售后团队,进行方案宣讲; 9、具备高度的技术和分析能力,拥有5年以上的云解决方案架构(实施/咨询)经验。
  • 13k-18k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
  • 12k-18k 经验3-5年 / 本科
    工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    数据研发岗: 岗位职责: 1、负责业务需求承接和相关数据及报表研发工作; 2、承接业务需求,按照业务要求,按质按量完成需求交付,沉淀数据资产; 3、可独立完成需求拆解,数据模型设计,数据研发和开发及测试工作。 岗位要求: 1、计算机相关专业本科以上学历。 2、1年以上工作经验。 3、熟悉主流分布式计算工具,hadoop, spark, hbase等,精通SQL开发,熟悉MapReduce原理; 4、有一定的数据仓库开发经验,对各类数据模型设计方法有比较全面和深入的了解。 5、掌握java/python编程中的至少一种; 6、具备较好的数据抽象能力和主观能动性,能够从实际问题出发,提出数据解决方案并跟进方案落地;
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 20k-35k 经验5-10年 / 本科
    企业服务,工具 / 上市公司 / 2000人以上
    Summary NCCT는 Naver Cloud 법인과 발맞추어 Cloud 서비스에 필요한 다양한 상품과 운영도구들을 중국에서 개발하고 유지보수 하는 조직입니다. NCCT 법인 내 NCP Development 부서의 한국 향 개발 관리 업무의 수요에 의한 충원의 건입니다. Position Information: Naver Cloud Platform 서비스 개발 - IaaS, PaaS, SaaS 서비스 개발 및 유지보수 Cloud 운영을 위한 관리도구 개발 및 유지보수 Desired Skills, Experience: - 유관업무 경력 3년 이상 - Computer Science 또는 Software Engineering에 대한 이해가 있으신 분 - Java 기반의 개발 경험이 있으며 Spring Framework에 대한 이해와 경험이 있으신 분 - MySQL, Oracle 등의 RDB 와 MongoDB, Redis, HBase 등의 NoSQL에 대한 이해와 경험이 있으신 분 - Elasticsearch, Kafka 등의 기본적인 오픈소스 플랫폼에 대한 이해와 경험이 있으신 분 - 문제 해결 능력과 커뮤니케이션이 원활하신 분 - 긍정적인 마인드를 가지신 분 - 중국어에 대한 기초가 있으신 분 보유하고 있다면 우대사항이 될 만한 스킬 셋이나 경험을 작성 해 주세요. - 한국 국적 - 중국어 커뮤니케이션 가능하신 분 - 영어로 커뮤니케이션 가능하신 분 - Excel 업로드/다운로드 개발 경험이 있으신 분 - Docker & Kubernetes 서비스 개발 및 운영 경험이 있으신 분 - Vue, React 등을 이용한 Frontend 개발에 대한 이해가 있으신 분
  • 25k-40k·13薪 经验3-5年 / 本科
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    岗位职责: 1、负责账务、线上业务运营相关服务的设计和开发; 2、深入分析业务需求,撰写技术方案和系统设计; 3、完成详细设计和编码的任务,确保项目的进度和质量; 4、能快速分析解决复杂的技术问题; 任职要求: 1、本科及以上学历,专业基础扎实,计算机及相关专业优先; 2、为人踏实,协作能力强,能接受一定的工作压力; 3、具有较强的自我驱动能力和自学能力,沟通能力强; 4、Java Web开发3年以上经验,熟悉面向对象开发模式,了解常用的设计模式; 5、精通Java面向对象开发模式,了解常用的设计模式、熟练使用J2EE开源框架如Spring/SpringBoot/MyBatis-plus/Maven等,并了解其架构和实现原理; 6、精通Java集合包和并发包。或者精通Guava等第三方集合包; 7、熟悉MySQL数据库,能独立完成MySQL的数据库设计、性能调优等; 8、熟悉Kafka、RabbitMQ、Redis、HBase等常用MQ和非关系型数据库; 9、有Hadoop、Hive、Spark、Flink等大数据工具使用经验者优先; 10、有支付、账务系统、清结算、RPA、电子券、BI及数据可视化项目或行业工作经验优先。
  • 20k-40k·13薪 经验不限 / 不限
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责: 设计、实现并优化搜索推荐算法和系统,确保搜索结果的准确性、多样性和个性化。 分析和理解用户搜索行为、偏好和趋势,提取关键特征并构建相应的模型和算法。 进行大规模数据处理和分析,优化搜索引擎的性能和效率。 与产品团队紧密合作,理解用户需求并将其转化为技术方案和功能需求。 进行实验和测试,评估算法和模型的效果,并持续优化改进。 跟踪行业最新技术和研究,探索新的算法和方法来提升搜索推荐质量。 职位要求: 本科及以上学历,计算机、统计学、数学等相关专业; 5年及以上搜索算法工作经验,至少有3年模型排序经验,有电商/旅游公司工作经验者优先; 熟练掌握LR/GBDT等排序模型, 对BERT/DSSM等深度模型有一定的了解; 熟练使用python语言,有Tensorflow、PyTorch等深度学习框架开发者优先; 具备大数据的分析能力、大数据挖掘能力,数据各种数据平台的使用,例如:Hive/HBase/Spark/; 了解A/B Testing过程,熟悉CTR、CVR、UV value等电商行业核心业务指标; 具备较好的工程基础和良好的代码风格; 具有良好的沟通能力,英语听力良好。
  • 30k-45k·14薪 经验3-5年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 30k-45k·14薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 25k-35k 经验3-5年 / 不限
    移动互联网,广告营销 / 上市公司 / 2000人以上
    岗位职责: 1.负责搜狐智能媒体垂直业务服务端研发;2.对业务需求进行技术方案设计、实现以及优化,持续提升服务性能和稳定性,承接用户端流量;3.改进和优化开发流程、技术框架、服务设施性能;4.跟踪新技术发展并运用到实际项目中。 任职资格: 1.**本科以上学历,计算机科学、电子工程、信息工程或其它相关理工科专业学士以上学位,有2年以上互联网服务端开发经验;2.Java基础扎实,熟悉主流的Java开发框架,如SpringBoot,Mybatis,gRPC等;3.熟练使用MySQL、Redis的使用,并了解其原理,具备SQL调优经验;4.熟悉Linux、Tomcat,Nginx等开源的服务器和Web服务中间件,有调优经验;5.对Hadoop,Hbase,Hive有一定的了解;6.责任心强,有良好的沟通能力,团队合作能力以及推进工作执行能力。
  • 25k-40k·13薪 经验3-5年 / 本科
    软件服务|咨询,人工智能服务 / 不需要融资 / 150-500人
    工作职责: 1、负责云端仿真业务核心模块的微服务体系研发、性能调优。 2、负责仿真业务大数据处理平台的研发、部署及维护。 3、负责在特定业务场景下进行技术选型。 4、负责业务研发过程中的技术攻关、对一些技术难题提出解决方案。 任职要求: 1、本科及以上计算机及相关专业;3年及以上工作经验。具有强烈的责任心、使命感、协作精神。 2、精通Java,熟悉Spring等相关技术栈。 3、精通数据库原理及相关性能调优技术,熟悉mybatis框架,熟悉postgresql、mysql等主流数据库。 4、精通常用微服务开发框架。 5、对实时、批处理大数据平台、数据中台等高并发及高可用分布式系统有相关研发或使用经验。 6、精通不同业务场景下的存储和计算技术选型,如高速缓存、分布式存储、实时计算等。 7、具有较强的学习能力、严谨的逻辑思维能力、工程实现能力,良好的编码规范。能够灵活高效地解决研发过程中的技术问题。 加分项: 1、互联网背景,微服务架构、大数据平台、数据中台等研发或使用经验。 2、拥有但不限于下述分布式技术框架的二次开发、部署或使用经验:SpringCloud、Dubbo、Flink、Storm、Spark、ES、Redis、HBase、MongoDB。 3、C++、Python语言相关经验。 4、K8S、Docker相关技术经验。