-
职位职责: 1、负责懂车帝推荐架构的持续改进,设计和实现合理的离线架构; 2、负责懂车帝策略相关的离线数据流、离线召回、数据分析、资源调优等任务设计和开发; 3、构建完善的 debug 能力体系,提升问题分析与追查的效率; 4、学界及业界的新技术预研与落地。 职位要求: 1、熟悉 Flink、Spark Streaming、Storm 等主流大数据计算系统原理; 2、具有敏锐的数据分析和洞察能力,熟悉常见的大数据开发工具(Spark/Hive/Hadoop等); 3、精通 Java / Scala / python/ sql 等开发语言; 4、有优秀的设计和编码思维,对解决具有挑战性问题充满激情。
-
职位职责: 1、负责飞书People产品线业务离线&实时数据仓库构建; 2、负责维度模型的设计和大数据开发,解决数据任务性能优化、质量提升等技术问题; 3、负责打通不同业务线数据内容,形成统一数据模型; 4、负责全产品线数据治理,提升数据资产质量。 职位要求: 1、计算机、数学相关专业本科及以上学历,三年以上大数据开发实际工作经验; 2、深入理解常用的维度建模理论,可独立把控数据仓库的各层级设计,有OLAP分析应用经验;有数据挖掘,数据分析相关经验优先; 3、熟练掌握HSQL,熟悉Spark/Hive/Flink分布式计算框架,熟悉大数据的离线和实时处理,可以进行海量数据模型的设计、开发; 4、有产品思维,主动思考基于业务场景下的数据体系建设,而不单单只会做执行; 5、工作认真,负责,良好的团队合作精神和解决问题分析能力,钻研技术克服困难,勇于挑战。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
工作职责 1、本科以上学历 2、3年及以上大数据开发/架构经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验,有互联网公司或者金融保险企业级数仓建设经验优先 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等 3、精通SQL、熟悉Shell、具备海量数据加工经验,精通Hive/Spark/Flink等大数据计算框架 4、具备实时数据仓库经验,熟悉Kafka/Impala/Kudu/ClickHouse/Doris等大数据开源技术,具有Java/Python编程经验者优先 任职要求 1. 负责数仓领域模型的设计开发,参与离线/实时数仓建设; 2. 负责数据平台上的数据处理流程设计、开发与维护与优化; 3. 参与数据治理及数据相关项目,制定合理的工作计划,并在执行过程中管理风险。
-
工作职责 1. 负责安全发现、运营效率提升等相关模型的开发、落地和调优; 2. 与产品和业务团队紧密合作,理解产品和业务需求,并提供相应的算法和模型支持,将相应的业务问题转换为对应的模型问题; 3. 跟踪最新的研究进展和技术趋势,不断提升算法和模型的性能和鲁棒性。 4. 撰写技术文档,分享研究成果和经验,并向其他团队成员提供技术支持和培训。 5. 对现有系统或模型的不足进行分析,找到目前系统的瓶颈,改进系统算法,提高系统性能; 任职要求 1. 计算机科学、数学、物理、统计学或相关领域的本科及以上学历。; 2. 熟练掌握机器学习和深度学习的基本理论和常用算法,如常用的回归、分类、聚类、神经网络等。 3. 熟练掌握至少一种编程语言,如Python、Java、C++等,具有扎实的编程基础和良好的代码风格。 4. 熟悉常用的数据处理和分析工具,如Pandas、Numpy、Scikit-learn、pyplot等常规工具,spark、hive等大数据工具、TensorFlow、pytorch等深度学习框架。具备图分析,nebula图数据库、milvus向量数据库等工具使用为佳; 5、对算法工程化有相应的实践,对FastAPI、sqlalchemy、基础的Liunx、CI/CD等有相应的实践; 6. 对自然语义分析、大语言模型的场景化应用、编排、调优有实际的落地经验优先; 7. 具备一定的运营经验和业务敏感度,能够理解产品和业务需求,并从算法角度提出优化建议。 8. 积极的探索精神,对新的领域,新的工具有着强烈的好奇心和自驱力来快速学习和运用,对过程中的问题能够快速解决;
-
工作职责 1.异常分析处理,快速恢复应用系统故障,确保业务正常进行; 2.主动预防,分析应用的运行趋势,找出潜在问题并防止其发生; 3.从运维角度评估应用架构可用性、变更风险,确保运行稳定; 4.梳理设计实施应用监控,建立完善的应用监控体系; 5.自动化运营脚本或工具开发,提升工作效率。 任职要求 1.计算机相关专业,大学本科及以上学历; 2.责任心强,工作积极主动,有较好的沟通协调能力,有良好的心理素质; 3.有自驱学习能力,具备较强的问题分析能力和解决能力; 4.一年以上软件开发或者运维工作经验,有金融系统运维经验优先; 5.熟悉以下技术中的两种或以上: 1)Oracle,PostgreSQL或者Mysql数据库性能优化技术; 2)Linux的操作、维护,了解Linux内核性能优化原理; 3)SpringBoot等微服务平台架构以及应用程序的开发技术及流程,或者Python、Go等语言开发技术; 4)Tomcat,Nginx或国产信创应用中间件的配置和维护; 5)k8s容器平台或者云计算、云网络、云存储等运维优化能力; 6)Hadoop,Hive,Spark或者Flink等大数据相关运维优化能力; 7)AI相关技术的运维优化能力。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
岗位职责: 1. 在移动通信和移动互联网领域,利用数据科学专业知识进行通信与互联网机器学习,人工智能等相关产品的研发工作; 2. 运用量化分析、数据挖掘和数据可视化方面的专业知识,为我们提供超越数字层面的专业洞察; 3. 运用数据和业务规则解决大规模网络中系统和数据基础架构中潜在的问题; 4. 在跨功能域/跨职能部门的工作中定义问题陈述,收集数据,构建分析模型并提出建议; 5. 构建和维护数据驱动的优化模型,实验,预测算法和容量约束模型; 6. 建立分析模型来识别和输出推动网络系统关键决策; 7. 能熟练运用R,Python, Spark, Hadoop和SQL, Tableau等工具来提高分析效率; 8. 通过探索性分析以发现新机遇:了解移动通信和互联网生态系统,用户行为和长期趋势。 任职要求: 1. 计算机、通信与信息工程、数学、统计、电子工程、物理等相关专业的留学生博士、硕士; 2. 熟练掌握至少2种语言:Python, R, Matlab, SQL, Scala, Spark, PHP, SAS, Weka等; 3. 拥有优秀的统计知识; 4. 对移动通信或互联网行业知识有一定了解,包括移动互联网行业、手机制造商、通信网络设备供应商和/或芯片组供应商等; 5. 能与产品和领导团队流畅沟通分析结果,以讨论并影响产品战略的制定; 6. 有在国内外知名期刊或会议(SCI/EI检索)有通信、计算机或数据科学领域相关论文发表; 7. 具备较强的英文科研文献阅读与撰写能力。大学英语六级/或托福、雅思。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
职位描述 1、负责AI算法的工程化落地,搭建从离线训练到在线服务的整个闭环服务平台; 2、根据需求完成实时推荐系统、实时特征计算、离线训练平台等系统的架构设计、工程实现及迭代优化; 3、能够根据不同的业务需求,灵活快速地完成具有挑战性的项目; 职位要求 1、计算机及相关专业本科及以上学历,具备2年及以上服务端开发经验; 2、扎实的计算机系统知识,掌握Golang编程语言,同时熟悉Python编程语言者优先; 3、熟练应用MySQL等关系数据库技术,熟练应用Redis缓存技术;熟悉Linux系统环境,能熟练使用Linux命令完成日常工作; 4、具有高性能、高可用的复杂业务系统开发经验,熟悉分布式、缓存、消息等机制优先; 5、具有Docker、Kubernetes、Istio等相关深度使用和开发经验者优先; 6、了解Kafka/Hive/Spark/Flink等大数据生态圈技术,具有相关大数据开发经验优先;有机器学习(tensorflow serving) 相关知识优先; 7、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,有强烈的求知欲,善于学习新事物; 8、具有良好的沟通能力、团队合作精神和执行力,重视生产效率,研发质量。
-
岗位职责: 1.负责腾讯音乐集团相关产品推荐算法的设计实现与优化; 2.负责完善现有推荐系统的基础算法及并行计算框架; 3.负责音乐平台业务的基于用户/音乐特性的数据挖掘及推荐策略设计实现; 4.负责能够根据业务数据变化不断设计并调整算法策略来提升算法质量,并最终提升用户体验。 岗位要求: 1.硕士及以上学历; 2.计算机,统计,信息,数学等相关专业毕业优先; 3.扎实可靠的编程能力,精通C/C++/GO至少一门编程语言; 4.熟悉业内推荐算法及数据挖掘领域的技术热点和进展,对互联网在线音乐的推荐系统架构设计有深入了解; 5.了解Hadoop/Spark生态相关技术优先; 6.具备规模分布式数据存储与计算开发经验者优先; 7.沟通能力佳,表达能力出众者,音乐爱好者优先。
-
数据研发岗: 岗位职责: 1、负责业务需求承接和相关数据及报表研发工作; 2、承接业务需求,按照业务要求,按质按量完成需求交付,沉淀数据资产; 3、可独立完成需求拆解,数据模型设计,数据研发和开发及测试工作。 岗位要求: 1、计算机相关专业本科以上学历。 2、1年以上工作经验。 3、熟悉主流分布式计算工具,hadoop, spark, hbase等,精通SQL开发,熟悉MapReduce原理; 4、有一定的数据仓库开发经验,对各类数据模型设计方法有比较全面和深入的了解。 5、掌握java/python编程中的至少一种; 6、具备较好的数据抽象能力和主观能动性,能够从实际问题出发,提出数据解决方案并跟进方案落地;
-
职位介绍: 系统工程师(数据方向)将负责搭建和维护数仓及集群,根据需求提供产品和技术服务, 为上海迪士尼度假区提供各种系统及业务支持。您将管理日志管理平台和系统大数据平台,负责准实时和非实时的报表开发和数据分析。 工作内容: 1、负责数据仓库相关业务的数据统计分析; 2、负责数据仓库应用产品设计、开发、维护工作; 3、负责大数据集群资源管理、性能优化和故障处理和监控. 我们希望您: 1、有本科及以上学历,3年以上数仓相关工作经验,计算机及相关专业优先; 2、对 Flink,Spark,Kafka等流、批式计算框架有深入理解,在 Flink实时计算方向有项目经验优先; 3、熟悉各种大数据组件,如Hadoop、Hive、HDFS、Hbase、Kafka、Hudi,愿意从事大数据平台开发工作和维护; 4、熟悉分布式、高并发、高稳定性、海量数据的系统特点和技术方案; 5、熟悉Sql语法,有扎实的编程基础,至少熟悉python或java一种编程语言; 6、对于新技术、新应用有浓烈的兴趣,敢于承接挑战并有较强的责任心。 关于上海迪士尼度假区: 作为全球家庭娱乐业的领军企业之一,上海迪士尼度假区为我们的游客带来独具一格的服务和珍藏一生的记忆。加入我们,在这个充满奇幻、想像、创意和探险的全新世界里,为每年数以百万的度假区游客创造欢乐。无论您的迪士尼旅程走向台前还是幕后,您都拥有无限机遇。 * 我们致力于提供平等的就业机会,欢迎残障人士申请职位。 * 具体的福利基于职位有所不同,可能根据公司政策进行调整。 * 上海迪士尼度假区不会委托任何人或第三方机构向求职者收取费用。候选人请务必通过度假区官方招聘渠道获取度假区招聘的相关资讯。
热门职位