-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
-
岗位职责: 1、参与基于Hadoop的大数据平台的研发工作与持续优化工作。 2、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。 3、利用大数据相关技术实现对数据的分析、挖掘、处理、及数据可视化等相关工作。 4、学习和研究新技术以满足系统需求。 岗位要求: 1、拥有数据处理相关专业背景。 2、对互联网产品有见解,关注前沿技术,有较强的学习能力、分析能力和动手能力。 3、熟悉常用分布式计算和存储框架,如Hadoop/HDFS/Spark等。 4、至少熟悉以下一种大数据技术组件,Hive、Impala、Hbase、Flume、Kafka、Zookeeper、Storm、Flink。熟悉资产管理、资金业务和金融工程相关领域业务者优先。 5、个性乐观开朗,沟通能力强,具备良好的团队协作精神,能利用自身技术能力提升团队整体研发效率。 6、多份工作经历需最近2份工作均满2年,或最近1份工作经历满3年。仅有一份工作经历的需满两年。 7.工作地点:上海,成都
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
工作职责: 1、负责贝壳Hermes实时计算平台的开发和维护 2、参与Flink等实时技术调研及框架源码改造开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
职位职责: 1、负责服务器产品的系统集成测试工作,确保服务器系统的功能完整性、软硬件兼容性、性能、可靠性; 2、和合作伙伴联合工作,确保服务器产品在研发阶段的测试覆盖效果;包括整体测试方案制定、测试计划、测试用例review、测试报告审查等工作; 3、分析测试过程中发现的故障与缺陷,为设计部门寻找故障根源提供支持,并通过缺陷分析不断调整、优化测试方案和执行力度,确保测试效果; 4、投入性能测试及调优,包括基准性能测试及协助业务进行硬件相关的性能分析与调优; 5、研究、引入新的部件和技术,并验证落地,支持服务器系统的竞争力提升; 6、负责维护自动化测试用例以及代码开发,审核供应商研发各个阶段测试计划以及测试报告,确保服务器研发质量达标。 职位要求: 1、计算机或相近专业本科及以上学历;3年以上服务器测试工作经验; 2、熟悉主流厂商服务器硬件产品,熟悉主流硬盘、网卡、SAS卡及测试方法,熟悉掌握speccpu/fio/iperf/stream/mlc/lmbench/等工具及相关调优手段; 3、具备服务器选型测试经验,熟练掌握BMC IPMI命令、BIOS性能及功耗节能相关调优手段,具备debug技能; 4、具备一定的性能分析调优手段,掌握perf、emon/Vtune等深入分析性能手段。具备使用多种性能分析手段分析基准性能及业务性能瓶颈的能力; 5、熟悉常见AI或者大数据分析软件性能评估手段,并具备hands on经验,例如Spark,HDFS,Flink等; 6、熟悉常见业务软件性能评估手段,例如MySQL、Redis、Kafka、RabbitMQ等; 7、熟悉PXE安装原理,UEFI Linux引导过程,简单的Linux kernel configuration以及kernel module基本工作原理; 8、熟悉网卡工作原理,性能(带宽、延迟等)评测手段,性能调优手段,以及未来网卡发展趋势优先考虑; 9、具备较强自动化测试脚本编写能力,至少熟悉shell或者python编程,熟悉Java或者C,C++为加分项; 10、具备自动化测试框架开发经验,例如avocado框架及互联网服务器选型测试经验者优先考虑。
-
岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
-
岗位职责: 1、参与基于Hadoop的大数据平台的研发工作与持续优化工作。 2、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。 3、利用大数据相关技术实现对数据的分析、挖掘、处理、及数据可视化等相关工作。 4、学习和研究新技术以满足系统需求。 岗位要求: 1、拥有数据处理相关专业背景。 2、对互联网产品有见解,关注前沿技术,有较强的学习能力、分析能力和动手能力。 3、熟悉常用分布式计算和存储框架,如Hadoop/HDFS/Spark等。 4、至少熟悉以下一种大数据技术组件,Hive、Impala、Hbase、Flume、Kafka、Zookeeper、Storm、Flink。熟悉资产管理、资金业务和金融工程相关领域业务者优先。 5、个性乐观开朗,沟通能力强,具备良好的团队协作精神,能利用自身技术能力提升团队整体研发效率。 6、工作经历需满2年。最短工作经历不少于一年。
-
职位职责: 团队介绍:Ads Infra(广告系统架构)是负责建设字节跳动中国区广告业务架构与基础架构的中台团队。Ads Infra的工作职责包括:负责字节跳动中国区的广告投放系统、广告算法服务和深度学习能力的架构设计与实现;负责抖音、今日头条等各端上的广告业务中台系统研发;负责构建高并发、高性能、高可用的服务框架,设计和研发多数据中心的广告系统架构。我们一端链接广告主的海量营销需求,一端承载字节跳动中国区产品、媒体合作伙伴的海量流量,依托可靠的计算广告技术和深度学习能力,精准匹配广告与用户需求,让营销更高效、更智能、更可持续。 1、为字节跳动商业化场景定制专属的存储、缓存等数据基架,支撑抖音、今日头条、西瓜视频、番茄小说、穿山甲等各类产品广告业务的快速构建与持续发展; 2、参与建设广告新一代特征存储系统(ACache),持续优化性能、成本、稳定性,加强其扩展定制能力; 3、参与建设广告数据平台与数据生态,优化业务在数据存储、流转、使用、加工等各方面的体验,提升业务迭代效率,降低运营成本; 4、承担广告业务需求洞察与存储方案指导的职责,深入了解各类广告业务需求,参与各类存储方案的指导、审核与纠错工作,推动技术架构的整体迭代与不断演进。 职位要求: 1、本科及以上学历,计算机、软件工程等相关专业,具备扎实的计算机基础; 2、熟练掌握C/C++程序开发,追求高品质代码,注重代码的工程质量; 3、熟悉Linux操作系统和开发环境,具备良好的数据结构和系统设计能力,熟悉任意一种语言的多线程、网络编程和分布式开发; 4、善于独立思考,能够主动发现问题,具备系统化的问题分析和问题解决能力,对未知领域有一定的学习、探索和研究能力; 5、具备存储经验(熟悉LevelDB/RocksDB、Redis、Cassandra/HBase/Hdfs/Ceph等)者优先; 6、具备互联网广告系统、搜索引擎、个性化推荐系统开发经验者优先,开源社区活跃贡献者优先。
-
职位介绍: 系统工程师(数据方向)将负责搭建和维护数仓及集群,根据需求提供产品和技术服务, 为上海迪士尼度假区提供各种系统及业务支持。您将管理日志管理平台和系统大数据平台,负责准实时和非实时的报表开发和数据分析。 工作内容: 1、负责数据仓库相关业务的数据统计分析; 2、负责数据仓库应用产品设计、开发、维护工作; 3、负责大数据集群资源管理、性能优化和故障处理和监控. 我们希望您: 1、有本科及以上学历,3年以上数仓相关工作经验,计算机及相关专业优先; 2、对 Flink,Spark,Kafka等流、批式计算框架有深入理解,在 Flink实时计算方向有项目经验优先; 3、熟悉各种大数据组件,如Hadoop、Hive、HDFS、Hbase、Kafka、Hudi,愿意从事大数据平台开发工作和维护; 4、熟悉分布式、高并发、高稳定性、海量数据的系统特点和技术方案; 5、熟悉Sql语法,有扎实的编程基础,至少熟悉python或java一种编程语言; 6、对于新技术、新应用有浓烈的兴趣,敢于承接挑战并有较强的责任心。 关于上海迪士尼度假区: 作为全球家庭娱乐业的领军企业之一,上海迪士尼度假区为我们的游客带来独具一格的服务和珍藏一生的记忆。加入我们,在这个充满奇幻、想像、创意和探险的全新世界里,为每年数以百万的度假区游客创造欢乐。无论您的迪士尼旅程走向台前还是幕后,您都拥有无限机遇。 * 我们致力于提供平等的就业机会,欢迎残障人士申请职位。 * 具体的福利基于职位有所不同,可能根据公司政策进行调整。 * 上海迪士尼度假区不会委托任何人或第三方机构向求职者收取费用。候选人请务必通过度假区官方招聘渠道获取度假区招聘的相关资讯。
-
一、岗位职责: 1、参与通信运营商B域及O域数据平台规划; 2、参与数仓数据架构; 3、参与数据模型设计 ; 4、负责核心数据处理程序设计、开发,文档编写; 二、任职资格要求: 1、精通大数据仓储技术栈并有(Spark、Hive、Flink、HBase、Hdfs、kafka等)相关开发经验,掌握主流ETL开发工具(Sqoop、Kettle); 2、熟悉Linux/Unix、python/java/shell,熟悉Node.js及后端服务架构,熟练掌握大型互联网服务端开发与运维技术,常用中间件,掌握分布式架构设计; 3、熟悉hive sql/spark sql,sql集群开发和性能调优,熟悉常用的MySQL、MongoDB等数据库及数据库原理,对Redis、ElasticSearch有所了解更佳,对HTTP、gRPC、消息队列了解; 4、 具有SQL性能优化经验;熟悉至少一种实时计算引擎 Storm, Spark Streaming, Flink; 5、熟练使用Python 5、具备扎实的编程基础、丰富的数据处理和分析经验、良好的系统设计和优化能力,以及对新技术的敏锐洞察力。 6、具有高度责任感、主动性、团队合作和敬业精神;良好的学习能力,沟通能力; 7、熟悉通信运营商行业B域和O域数据标签的优先; 8、在通信运营商有处理底层数据标签经验的优先;
-
任职要求: 1.8年以上Java应用开发经验,精通Java语言以及J2EE平台特性,熟悉常用的设计模式和开源框架, 2.有棋牌游戏行业从业经验者优先,有大型互联网项目经验或业内知名产品研发经验者优先; 3.精通领域建模能力,能够为复杂业务提供解决方案,有抽象出通用解决业务的能力; 4.精通Oracle、MySQL中的一个,MySQL优先; 5.熟悉Linux环境以及操作,熟悉Tomcat,Apache,Nginx等开源的服务器的配置和调优; 6.熟悉以下技术领域中的若干项,经验丰富者优先: (1)熟悉分布式系统基础设施中常用的技术,如缓存(Varnish、Redis)、消息中间件(Rabbit MQ、Kafka、RocketMQ)、搜索引擎(Elasticsearch、Lucence)等。 (2)熟悉高并发、高可靠性系统的设计、监控和运维,如负载均衡系统、集群和应用监控、系统容量评估、流量控制、性能优化、故障排查、日志收集和分析等; (3)熟悉分布式存储和分布式计算,如Hadoop HDFS、FastDFS、HBase、Hive等。 (4)熟悉微服务, 有服务治理的经验,精通SpringCloud技术栈或服务调用框架。 (5)熟悉Docker、虚拟化、弹性计算、自动化运维相关的技术。
-
岗位职责:1、参与建设具体业务统一的数据体系,能独立完成项目的系统分析,根据开发规范和数据模型设计实现数据开发任务,保证数据质量;2、参与数据仓库的设计和研发,进行海量数据模型设计、数据ETL开发;3、参与数据产品及应用的数据研发,发觉数据业务价值,助力数据化运营业务,构建丰富多样的BI应用。任职要求:1、从事数据仓库领域至少3年以上,本科及以上学历;熟悉数据仓库模型设计与ETL开发经验 ,有较为系统的海量数据性能处理经验;2、有从事分布式数据存储与计算平台上数据开发经验,熟悉Hadoop生态相关技术并有相关实践经验,包括HDFS、MapReduce、Hive、HBase,有Spark/Flink的开发经验尤佳;3、具备一定的JAVA、Python语言的开发能力,对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先; 4、有业务sense,责任心强,做事细致,具备较强的沟通协作能力、自我驱动能力,能够通过梳理设计业务模型发现业务问题,并驱动业务目标实现;5、有电商经验优先。
-
1、参与或负责数仓规划、数据研发规范、数据质量及稳定性保障建设; 2、参与或负责数据指标的管理(确定业务口径/技术口径)和数据模型的设计 (按分层模的方式把数据更加科学的组织存储); 3、根据公司自有产品负责数据仓库架构设计、ETL开发、数据验证、发布部署、运维等,构建易维护、可扩展的数据仓库公共模型,数据集市等,支持B1分析、数据挖掘和上层应用; 4、负责数据仓库ETL流程的优化及解决ETL相关技术问题; 5、负责参与相关数据方面的技术材料文档。 任职要求: 1、从事数据仓库或挖掘领域至少3年以上,熟悉数据仓库模型设计与ETL开发经验,掌握维度建模设计方法,具备海量数据处理经验; 2、熟悉数据仓库相关技术,如:需求分析、需求调研、数据分析、数据建模、ETL等; 3、熟悉数据库技术,熟练运用SQL及其他语言,能高效的与业务团队进行沟通; 4、有从事分布式数据存储与计算平台应用开发经验,熟练掌握et/工具,熟悉Hadoop生态相关技术并有相关实践经验者优先,如 Hdfs、MapReduce、Hive、Hbase 等; 5、良好的数据敏感度,能从数据中发现问题并解释,较强的数据、平台、技术理解能力; 6、良好的语言沟通协调能力、团队协作精神和自我驱动动力,对海量数据处理和分析有热情;