-
HIVE语言编码技能必须优秀,并且是该职位的必备技能。能够操作表中的数据,编写HIVE HQL代码。 •有编写代码的经验 •向同事和利益相关者清晰表达技术分析含义的能力 Responsibilities: •了解大数据技术。了解Hive, UNIX Shell脚本是必需的 •HIVE语言编码技能必须优秀,并且是该职位的必备技能。能够操作表中的数据,编写HIVE HQL代码。 •需要有敏捷项目的工作经验。 优秀的英语沟通和表达能力 •指导和引导谈话的能力。 了解JIRA, DEVOPS, control M scheduling优先考虑。 •向同事和利益相关者清晰表达技术分析含义的能力 •表现出最高的主人翁和责任标准
-
HIVE语言编码技能必须优秀,并且是该职位的必备技能。能够操作表中的数据,编写HIVE HQL代码。 •有编写代码的经验 •向同事和利益相关者清晰表达技术分析含义的能力 Responsibilities: •了解大数据技术。了解Hive, UNIX Shell脚本是必需的 •HIVE语言编码技能必须优秀,并且是该职位的必备技能。能够操作表中的数据,编写HIVE HQL代码。 •需要有敏捷项目的工作经验。 优秀的英语沟通和表达能力 •指导和引导谈话的能力。 了解JIRA, DEVOPS, control M scheduling优先考虑。 •向同事和利益相关者清晰表达技术分析含义的能力 •表现出最高的主人翁和责任标准
-
岗位职责: 1、负责平台运营、游戏运营、市场营销、App 产品分析等业务方向的数据分析工作,为业务发展提供数据支持; 2、熟练运用掌握的分析方法,依据业务数据发现问题、研究问题并探索解决方案,为业务部门提供业务优化和决策建议,推进数据驱动的精细化运营或营销; 3、建设业务分析模型,持续评估和优化模型,构建支持业务日常工作的业务数据分析框架,提升数据分析效率和质量; 4、将数据分析结果转化为可行的产品和运营策略,推动测试、优化,形成迭代,促进业务持续改进。 任职要求: 1、本科及以上学历,数学、统计、计算机、经济学等相关专业,有扎实的数理统计功底; 2、熟练掌握 SQL、Hive、Python/R 等数据清洗、分析工具; 3、能够独立完成需求抽象、数据摸底、特征工程、数据常规建模、业务落地全过程; 4、了解并能应用逻辑回归、随机森林、SVM、K - Means、KNN、Bayes、图论等常规数据挖掘算法; 5、具有 8年以上互联网企业数据分析经验,有用客观数据分析判断的量化思维和逻辑思维,有良好的产品感,善于发掘业务问题和痛点,跨部门团队协作能力强; 6、有业务数据分析框架建设经验者优先,有运营、产品、营销、游戏业务实践经验者更佳。 品质要求:为人忠诚正直诚实,有良好的职业素养。
-
职位职责: 1、在对产品增长业务理解的基础上,负责增长相关数据管理工作,跟进数据采集、核心指标构建及看板搭建和维护; 2、在数据建设的基础上进行线索增长分析,并进行线索质量评估,分析输出相应的优化策略,并跟进增长动作落地及效果评估; 3、主动进行产品功能及应用场景分析探查,通过跟踪和监控重点数据,发现潜在的问题与机会,给出数据支持、分析报告、问题解决方案建议,为业务决策提供数据支撑。 职位要求: 1、本科及以上学历,计算机科学、数理统计、数学、经济学等相关专业优先; 2、具备一定的数据分析工作经验,有过ToB品相关增长分析、具备一定行业背景、深度参与过新业务增长者加分; 3、熟练掌握SQL、Python/R等数据分析工具和编程语言,熟悉Hadoop、Hive、Flink等大数据相关技术应用,能够高效地进行数据提取、清洗和分析; 4、熟练掌握数理统计方法,逻辑性好;有一定数据挖掘的基础,掌握线索评估的具体流程和方法,并能灵活运用这些方法进行线索增长分析; 5、具备严谨的逻辑思维能力和强烈的好奇心,能够深入挖掘数据背后的价值;具备良好的沟通能力和团队合作精神,能够与不同部门的人员协作完成线索增长和评估任务; 6、有较强的学习能力和自我驱动力,能够快速适应不断变化的业务需求和数据分析技术;敢于表达观点,能独立负责具体项目完整分析,拿结果。
-
职位职责: 1、数据仓库与开发: 从端云链路出发,设计并实现高效的端云数据抽取、特征清洗链路,联动端云搭建高效的自动化分析、内容理解能力,参与抖音直播体验方向数仓、建模等工作,提升数据的易用性和质量; 2、模型部署与服务: 推动算法在业务场景中的落地,负责机器学习&深度学习模型的端云一体化部署工作,将现有信息、能力整合到可扩展的模型服务中; 3、数据挖掘与分析: 负责抖音直播客户端体验数据的挖掘与分析,通过数据洞察、定性与定量分析及模型建设,建设端云一体化数据理解能力,优化用户观看和开播体验; 4、业务协同与策略支持:深入理解直播业务,从体验视角出发,联动客户端体验、DA团队,提供基于数据和算法的端云协同解决方案; 5、技术研究与方法论沉淀:总结并优化适用于直播体验业务数据分析&研究方法论,关注行业前沿技术。 职位要求: 1、本科及以上学历,数学、统计学、计算机相关专业优先; 2、熟练掌握Python、Scala、Java或Go等编程语言,具备扎实的编码能力和良好的编程规范意识; 3、精通SQL,掌握机器学习、深度学习相关算法,熟悉Scikit-learn、TensorFlow、PyTorch等框架(任一);熟悉Hive、Spark、Flink、Kafka等大数据处理框架; 4、熟悉机器/深度学习的工程架构,包括部署、运维、在线训练架构(客户端或Server); 5、数据意识:对业务、数据敏感,具备优秀的分析问题和解决问题的能力,能够快速理解和抽象业务需求。
-
工作职责 1.异常分析处理,快速恢复应用系统故障,确保业务正常进行; 2.主动预防,分析应用的运行趋势,找出潜在问题并防止其发生; 3.从运维角度评估应用架构可用性、变更风险,确保运行稳定; 4.梳理设计实施应用监控,建立完善的应用监控体系; 5.自动化运营脚本或工具开发,提升工作效率。 任职要求 1.计算机相关专业,大学本科及以上学历; 2.责任心强,工作积极主动,有较好的沟通协调能力,有良好的心理素质; 3.有自驱学习能力,具备较强的问题分析能力和解决能力; 4.一年以上软件开发或者运维工作经验,有金融系统运维经验优先; 5.熟悉以下技术中的两种或以上: 1)Oracle,PostgreSQL或者Mysql数据库性能优化技术; 2)Linux的操作、维护,了解Linux内核性能优化原理; 3)SpringBoot等微服务平台架构以及应用程序的开发技术及流程,或者Python、Go等语言开发技术; 4)Tomcat,Nginx或国产信创应用中间件的配置和维护; 5)k8s容器平台或者云计算、云网络、云存储等运维优化能力; 6)Hadoop,Hive,Spark或者Flink等大数据相关运维优化能力; 7)AI相关技术的运维优化能力。
-
职位介绍: 系统工程师(数据方向)将负责搭建和维护数仓及集群,根据需求提供产品和技术服务, 为上海迪士尼度假区提供各种系统及业务支持。您将管理日志管理平台和系统大数据平台,负责准实时和非实时的报表开发和数据分析。 工作内容: 1、负责数据仓库相关业务的数据统计分析; 2、负责数据仓库应用产品设计、开发、维护工作; 3、负责大数据集群资源管理、性能优化和故障处理和监控. 我们希望您: 1、有本科及以上学历,3年以上数仓相关工作经验,计算机及相关专业优先; 2、对 Flink,Spark,Kafka等流、批式计算框架有深入理解,在 Flink实时计算方向有项目经验优先; 3、熟悉各种大数据组件,如Hadoop、Hive、HDFS、Hbase、Kafka、Hudi,愿意从事大数据平台开发工作和维护; 4、熟悉分布式、高并发、高稳定性、海量数据的系统特点和技术方案; 5、熟悉Sql语法,有扎实的编程基础,至少熟悉python或java一种编程语言; 6、对于新技术、新应用有浓烈的兴趣,敢于承接挑战并有较强的责任心。 关于上海迪士尼度假区: 作为全球家庭娱乐业的领军企业之一,上海迪士尼度假区为我们的游客带来独具一格的服务和珍藏一生的记忆。加入我们,在这个充满奇幻、想像、创意和探险的全新世界里,为每年数以百万的度假区游客创造欢乐。无论您的迪士尼旅程走向台前还是幕后,您都拥有无限机遇。 * 我们致力于提供平等的就业机会,欢迎残障人士申请职位。 * 具体的福利基于职位有所不同,可能根据公司政策进行调整。 * 上海迪士尼度假区不会委托任何人或第三方机构向求职者收取费用。候选人请务必通过度假区官方招聘渠道获取度假区招聘的相关资讯。
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
职位描述 1、负责AI算法的工程化落地,搭建从离线训练到在线服务的整个闭环服务平台; 2、根据需求完成实时推荐系统、实时特征计算、离线训练平台等系统的架构设计、工程实现及迭代优化; 3、能够根据不同的业务需求,灵活快速地完成具有挑战性的项目; 职位要求 1、计算机及相关专业本科及以上学历,具备2年及以上服务端开发经验; 2、扎实的计算机系统知识,掌握Golang编程语言,同时熟悉Python编程语言者优先; 3、熟练应用MySQL等关系数据库技术,熟练应用Redis缓存技术;熟悉Linux系统环境,能熟练使用Linux命令完成日常工作; 4、具有高性能、高可用的复杂业务系统开发经验,熟悉分布式、缓存、消息等机制优先; 5、具有Docker、Kubernetes、Istio等相关深度使用和开发经验者优先; 6、了解Kafka/Hive/Spark/Flink等大数据生态圈技术,具有相关大数据开发经验优先;有机器学习(tensorflow serving) 相关知识优先; 7、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,有强烈的求知欲,善于学习新事物; 8、具有良好的沟通能力、团队合作精神和执行力,重视生产效率,研发质量。
-
岗位职责: 1.负责搜狐智能媒体垂直业务服务端研发;2.对业务需求进行技术方案设计、实现以及优化,持续提升服务性能和稳定性,承接用户端流量;3.改进和优化开发流程、技术框架、服务设施性能;4.跟踪新技术发展并运用到实际项目中。 任职资格: 1.**本科以上学历,计算机科学、电子工程、信息工程或其它相关理工科专业学士以上学位,有2年以上互联网服务端开发经验;2.Java基础扎实,熟悉主流的Java开发框架,如SpringBoot,Mybatis,gRPC等;3.熟练使用MySQL、Redis的使用,并了解其原理,具备SQL调优经验;4.熟悉Linux、Tomcat,Nginx等开源的服务器和Web服务中间件,有调优经验;5.对Hadoop,Hbase,Hive有一定的了解;6.责任心强,有良好的沟通能力,团队合作能力以及推进工作执行能力。