-
一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
-
职位职责: 飞书企业应用专注于泛财务领域。我们致力于建设基于大数据,搭建智能化、业财一体的财务中台,为互联网生态业务提供合规可控、效能卓越、业务洞察强的平台化能力,让经营者看清现状、预见未来。以技术中台的形式支撑财务税务,提供一站式产品能力,包括应收应付、发票、计税、付款,以及海量数据的清算、核算、报表、风控、分析。 欢迎对技术有孜孜追求的你,加入我们,一起探索和研究互联网时代的企业应用产品! 1、负责财务数据全链路质量保障和治理,包括但不限于数据同步、数据加工(离线+实时)、数据资产化(指标、标签等)、数据业务支撑(财报、管报、应用服务数据等); 2、负责数据类产品的质量保障方案设计及执行落地; 3、通过数据资产审计、制定准入准出机制、设计及执行数据校验核对、资产巡检、变更防控、仿真预演、监控应急等方式保障数据资产及数据产品的质量; 4、通过测试流程标准、方法和技术创新、自动化工具化等方式提升业务数据资产质量、数据产品质量、研测效率; 5、不断探究和建设一流的大数据领域技术风险保障体系和技术风险保障平台。 职位要求: 1、数据或数据产品相关的开发或测试4年以上经验,对数据仓库、数据挖掘、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如Java、SQL、Python、go等;有测试框架或质量平台开发经验、大型项目开发编码经验者优先; 3、熟悉数据仓库模型设计、ETL开发,维度建模设计方法,具备海量数据处理经验者优先;具备数据研发平台、数据服务等数据产品开发测试经验者优先;具备分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术者优先; 4、具备大型项目的整体质量保障经验者优先;具备性能、异常、稳定性、用例自动生成等专业测试领域经验者优先; 5、具备较强的逻辑思维能力,谈判能力和冲突管理能力;良好的沟通能力和团队协作能力;快速适应变化、结果导向、追求上进。
-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责: 1、建设机器学习/深度学习平台,根据实际业务场景和需求,优化平台能力; 2、建设灵活的AI开发组件,支持业务打造定制化AI平台及业务。 岗位要求: 1、计算机及相关专业本科及以上学历,具有扎实的代码功底,熟悉常用的算法和数据结构; 2、精通Java语言,熟悉了解Python语言,具有良好的编程习惯,熟悉多线程编程,内存管理,设计模式和Linux开发环境; 3、熟悉Hadoop/Hive/Spark/Flink等计算框架,熟悉Docker技术及Kubernetes容器调度系统; 4、熟悉业界主流的机器学习平台,有机器学习平台研发经验者优先; 5、有Tensorflow/PyTorch等机器学习框架使用经验者优先; 6、有AutoML、自动特征工程系统设计经验者优先; 7、良好的团队合作和协调沟通能力,学习能力强,自我驱动力强,紧跟机器学习的发展动态。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
岗位职责 1、负责基于数据中台的工具/应用需求调研、业务规划、产品设计、模型设计等工作; 2、负责收集内外部用户需求,针对业务的数据需求进行系统化、体系化的搜集、整理、分析,并通过用户调研、深度挖掘用户需求,确定需求边界,完成需求捕获、需求分析、需求确认、业务建模,整理输出需求规格说明书; 3、负责组织完成需求规格说明书评审; 4、负责跟踪需求建设进度与质量,及时发现并协调解决问题; 5、负责需求管理工作,包含需求变更控制、需求版本控制等。 任职要求 1、本科以上学历,计算机、统计、数学相关专业毕业,5年以上相关工作经验; 2、对主流数据产品、数据仓库、BI产品有深入了解,负责设计过数据分析、数据挖掘、数据可视化相关产品,具有3-5年BI工具及大数据产品设计经验和数据业务分析能力; 3、熟练掌握SQL语句,在数据结构方面有较扎实的基本功; 4、具备产品经理基础工作经验,能把控从需求挖掘、需求分析、产品原型、业务建模,到产品上线后的跟进和升级改造等整个产品生命周期的质量和风险; 5、具备系统原型设计能力; 6、具备较强的沟通协调能力; 7、具备较强的文档编写能力,包含制作高质量的汇报PPT; 8、具有数据治理相关经验者优先。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
-
职位介绍: 作为商业应用助理经理,您的主要职责是用产品思维和能力为公司相应业务线提供数字化技术产品及解决方案,解决业务痛点,促进业务增长。 您将为我们的用户(游客和演职人员)提供前沿的技术和友好的线上线下用户体验。您将定期接触业务利益相关者和执行管理层,以及将您的专业知识应用于许多技术问题和用户场景。 工作内容: 您需要带领单业务线或跨多业务线的数字化项目,完成包括数字解决方案的设计、项目采购及成本管理、供应商管理、项目敏捷交付管理,以及完成实施后的日常运维等各项管理任务; 您需要根据管理层需求的优先级,协调不同技术团队达成整体最优化技术方案,实现业务成果和客户价值的最大化; 您需要根据业务目标确定的优先事项,在多团队之间协调技术方案的实施细节,确保技术方案的实施符合既定目标,并对各团队直接合作形成正面、积极的影响; 您需要参与各技术方案项目会议,推动与数字产品团队、技术团队和运营团队进行技术讨论和落地。及时向管理层汇报各项目中未被重视的重要争议,并提出解决建议; 您需要负责人力资源部门相关产品的日常运营,定期评估系统性能和能力,提出改进措施,确保系统安全包括数据保护和隐私合规。 您将领导企业内部协作沟通相关产品的设计与开发,收集用户需求和反馈,优化用户体验。 您需要分析现有系统的管理流程,识别改进机会,设计和实施更高效的流程,引入自动化工具以提高效率。 有效促进与管理层、业务方以及最终用户的沟通,加深对产品及解决方案的认知; 代表团队进行产品及方案的宣讲,能够带领和指导团队其他业务分析人员。 我们希望您: 本科学位,人力资源管理、计算机、或数字化相关领域经验,硕士以上更佳; 5年以上人力资源领域或企业内部协同管理等数字化转型产品交付经验,具备高质量技术解决方案的实施经验; 在以下领域,至少2项有比较丰富的专业知识和项目经验: o企业员工沟通及办公自动化软件或系统的设计与实施; o企业业务流程自动化平台、员工办公协作平台的搭建和优化,例如通过低代码平台、RPA工具快速构建线上协作流程; o涉及手持设备、终端设备或嵌入式设备等软硬件相结合场景的解决方案设计与实施; o云计算和大数据相关的数据分析平台,例如数据湖、数据仓库、用户数据平台(CDP)、商业智能分析(BI)、数据可视化应用等; o巨型复杂商业应用系统的数字化转型、迁移、架构优化,例如SAP, Workday; o生成式人工智能相关的项目或产品; 能够根据客户要求提出综合强大且经济高效的解决方案; 杰出的书面,口头和人际交往能力,能与多项目团队高效工作,该岗位须与多团队持续沟通; 拥有规划和交付跨多个产品和组织单位使用的软件平台(包括桌面应用、手机App及小程序)的经验; 拥有产品成功交付及解决未来概念、产品或技术问题的经验; 按照已定义的方法及流程来维护和实施日常最佳技术实践; 致力于根据需求和业务需求按时交付; 能够并且愿意有效地指导初级团队成员并为有效的工作氛围做出贡献; 熟悉中国市场数字生态、熟悉敏捷开发模式; 了解中国市场互联网生态和技术趋势。 关于上海迪士尼度假区: 作为全球家庭娱乐业的领军企业之一,上海迪士尼度假区为我们的游客带来独具一格的服务和珍藏一生的记忆。加入我们,在这个充满奇幻、想像、创意和探险的全新世界里,为度假区游客创造欢乐。无论您的迪士尼旅程走向台前还是幕后,您都拥有无限机遇。 * 我们致力于提供平等的就业机会。 * 具体的福利基于职位有所不同,可能根据公司政策进行调整。 * 上海迪士尼度假区不会委托任何人或第三方机构向求职者收取费用。候选人请务必通过度假区官方招聘渠道获取度假区招聘的相关资讯。
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位职责 1、负责基于数据中台的工具/应用需求调研、业务规划、产品设计、模型设计等工作; 2、负责收集内外部用户需求,针对业务的数据需求进行系统化、体系化的搜集、整理、分析,并通过用户调研、深度挖掘用户需求,确定需求边界,完成需求捕获、需求分析、需求确认、业务建模,整理输出需求规格说明书; 3、负责组织完成需求规格说明书评审; 4、负责跟踪需求建设进度与质量,及时发现并协调解决问题; 5、负责需求管理工作,包含需求变更控制、需求版本控制等。 任职要求 1、本科以上学历,计算机、统计、数学相关专业毕业,5年以上相关工作经验; 2、对主流数据产品、数据仓库、BI产品有深入了解,负责设计过数据分析、数据挖掘、数据可视化相关产品,具有3-5年BI工具及大数据产品设计经验和数据业务分析能力; 3、熟练掌握SQL语句,在数据结构方面有较扎实的基本功; 4、具备产品经理基础工作经验,能把控从需求挖掘、需求分析、产品原型、业务建模,到产品上线后的跟进和升级改造等整个产品生命周期的质量和风险; 5、具备系统原型设计能力; 6、具备较强的沟通协调能力; 7、具备较强的文档编写能力,包含制作高质量的汇报PPT; 8、具有数据治理相关经验者优先。
-
工作职责 1、应用系统运维,通过完备的应用监控部署,发现异常事件并快速恢复,确保业务正常进行; 2、主动预防,分析应用的运行趋势找出潜在问题并防止其发生; 3、系统优化,从运维角度评估应用架构可用性、变更风险、性能及容量,确保系统运行稳定; 4、运维工具开发,通过前后端的开发框架或运维脚本,提升运维工作效率。 任职要求 1、计算机相关专业,大学本科及以上学历; 2、熟悉Linux、tomcat/nginx、mysql/pg、k8s容器等主流企业级基础架构; 3、具备云平台运维经验,熟悉计算/网络/存储的产品特性和Prometheus/Ansible/ELK等主流运维工具; 4、理解Spring/Springcloud等应用框架,了解针对应用做限流熔断等措施的实现方案; 5、责任心强,工作积极主动,有较好的沟通协调能力,有良好的心理素质; 6、有自驱学习能力,具备较强的问题分析能力和解决能力; 7、有Java/Python/Golang运维开发经验,大型呼叫中心经验者优先;
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
工作职责 1、应用系统运维,通过完备的应用监控部署,发现异常事件并快速恢复,确保业务正常进行; 2、主动预防,分析应用的运行趋势找出潜在问题并防止其发生; 3、系统优化,从运维角度评估应用架构可用性、变更风险、性能及容量,确保系统运行稳定; 4、运维工具开发,通过前后端的开发框架或运维脚本,提升运维工作效率; 5、应用系统运营,负责应用产品问题收集、分析定位、问题优化推进和闭环跟踪能力; 6、应用系统版本支持,参与业务需求讨论、版本部署管理和底层资源维护。 任职要求 1、linux/Unix的操作和维护,有3年K8S容器应用运维经验 2、优先计算机相关专业,本科及以上学历,3年以上系统运维(SRE)经验; 3、责任心强,工作积极主动、自我驱动,有较好的沟通协调、事件推进和闭环能力; 4、基础开发能力扎实,具备Shell/Java一种以上的开发技术和项目经验; 5、熟悉ITIL体系,能结合实际使用制定和优化日常流程规范和标准; 6、对应用系统管理有一定经验,能快速上手并解决线上问题; 7、熟练运用主流的运维或监控工具提升运维效率,对当前系统架构和流程进行持续优化; 8、运维技术熟悉以下技术中的两种或以上: 1)MySQL、PostgreSQL、Redis等主流数据库架构和日常运维,熟悉SQL操作; 2)J2EE平台架构或Springboot微服务架构的开发技术及流程; 3)keepalived、nginx、kafka和zookeeper等应用中间件的配置和维护; 4)网络四层及七层协议在应用系统的应用和优化。
热门职位