-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
-
美团平台为用户的基础产品体验负责,还承担了美团的用户增长、市场和品牌营销以及多条业务线的产品设计职责,建立了融合文字、图片、视频和直播等不同形式的內容生态系统,同时整合地图服务部、客户服务和体验部、企业业务部、网约车业务部等部门,致力于用科技提升美团数亿消费者、近千万商家、骑手、司机和团长的服务体验。美团平台拥有高并发、多业务的复杂场景,为技术深度优化提供了最佳实践可能。这里有简单、讲逻辑、有爱的团队,更是一块理想的实战场地,舞台广阔,欢迎你来尽情施展。 岗位职责 1.负责制定流量体系建设的规划和目标,确保流量获取、分发和转化的高效运作。 2.负责流量投放方向的策略制定及优化工作,通过广告投放和创意规划等手段,提高大促期间平台DAU规模,实现各业务增长目标; 3. 分析并评估现有的流量获取渠道和推广方式,识别潜在的改进和优化点 4. 与投放团队设计并执行流量运营策略,包括但不限于线上广告、内容推广、线下媒介等,提高用户获取效率和转化率; 5. 与产品和技术团队紧密合作,协同推进流量运营和用户增长的目标。 6. 建设和维护流量分析体系,提供准确的流量数据和分析报告,为业务决策提供支持。 岗位基本需求 1.大学本科以上学历,有相关专业背景优先。 2.至少3年以上用户运营或媒介投放经验,熟悉互联网行业和用户运营流程。 3.具备良好的数据分析能力,熟悉广告投放数据分析和优化方法,能够通过数据分析提高广告投放效果。 4.熟悉常用的广告投放平台和合作渠道,有丰富的广告投放经验,能够制定并实施有效的流量投放计划。 5.具备优秀的沟通和协调能力,能够与团队和平台各业务方、媒介团队等紧密合作,推动项目的顺利实施。 岗位亮点 1.作为平台大促活动流量运营专家,能够与平台各业务方紧密沟通,了解各业务经营模式,培养全局视角和业务体感; 2.与各业务用户增长运营团队及媒介投放团队协同,在强化自身流量运营及媒介投放专业能力外,可以学习到各行业用户运营及营销规划特点。 3.更开放的工作和学习氛围
-
职位职责: 1、负责巨量引擎电商广告业务流量策略方向,包括策略制定、实验设计和数据分析,为流量变现效率负责; 2、精细化优化电商广告策略,包括流量提升,样式交互,投放转化漏斗等,配合行业预算引入,提升电商广告整体收入; 3、有商业化经验,熟悉广告流量策略,对广告系统、架构和逻辑有充分的认知和了解; 4、有预算视角和客户视角,关注电商行业最新增长模式,能够发现客户问题并深入结合诉求提出流量方向的解决方案,持续挖掘流量效率提升的空间。 职位要求: 1、有3-5年产品策略工作经验,广告和电商流量策略相关经验者优先; 2、有较强的数据分析能力,对数字敏感,较好的逻辑思维能力和理解能力; 3、具有良好的表达能力、沟通能力、执行能力、团队协作能力,思维活跃,有创新精神,认真负责。
-
岗位职责: 1、拓展整合互联网流量资源,且能够独立进行业内流量资源的开发维护; 2、建立维护流量合作方的客户关系,促进流量拓展部门能够更加有效的把控国内市场的渠道价格并控制交付的流量质量; 3、对于重点渠道客户,建立长期稳定的合作关系,挖掘并激发双方横纵向业务的合作潜力; 4、根据公司业务发展需求,能够寻找挖掘新的合作资源,同时推动新资源成功走向正轨; 5、善于发现流量侧的业务新方向,及时与上级和相关部门进行沟通探讨。 任职要求: 1、具备2年以上流量拓展经验; 2、良好的沟通能力和抗压能力,较强的谈判.应变能力,可独立执行重点客户的开发与管理工作; 3、敏锐的市场洞察力和出色的团队协作精神,逻辑思维清晰,目标明确,有强烈的销售热情和灵活的销售技巧; 4、负有责任心,职场心态成熟,适应互联网公司的氛围和工作节奏; 5、有app资源及丰富互联网流量相关行业人脉资源者优先。
-
职位职责: 1、负责风控数据链路开发工作,基于公司基础组件搭建风控数据计算平台,参与在线/近线/离线计算能力建设; 2、参与数据治理工作,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、丰富的大数据生态系统开发经验,熟悉Spark、Flink、Clickhouse、Hadoop等技术; 2、4年以上大数据研发经历,计算机相关专业本科及以上学历; 3、精通Go/C++/Java等至少一门编程语言,熟练运用各种常用算法和数据结构,有独立实现能力; 4、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于解决问题和分析问题; 5、熟悉流式计算,有大流量系统开发经验者优先。
-
美团核心本地商业-下沉市场发展部于2015年成立,通过招募优质的合作商伙伴并对其业务经营能力、组织能力等赋能,以期为下沉城市提供一站式的本地生活服务。 下沉市场发展部的业务场景涵盖了外卖餐饮、团购、拼好饭、闪购、医药等多元化的生活服务领域,同时搭建了一套稳定、高效的即时配送网络,为更多本地用户提供品质化、多样化、便捷高效的生活服务体验,为当地商户提供数字化发展机遇、提升数字化水平,为社会创造更多的就地就业机会。 截至2024年6月,下沉市场发展部已开拓全国4000+县区市,帮助百万商户实现本地生活服务数字化,日订单量突破千万,为数十万名骑手提供就业岗位,让本地生活服务逐渐成长为地方新基建,实现美团“帮助大家吃得更好,生活更好”的使命! 岗位职责 1、站内、站外流量拓展,基于业务特性与发展阶段,打通线上、线下大流量入口,实现可控流量增长。包括线下推广、分销、站内资源位运营等; 2、流量高效分发,整合内外部流量资源,基于不同项目、场景的流量需求,提供流量解决方案,并推进落地; 3、基于用户需求理解与洞察,挖掘增长机会,优化产品体验; 4、关注行业信息,挖掘市面新热点、新玩法,及时调整运营策略,保持竞争优势。 岗位基本需求 1、5年以上大型互联网公司流量运营、用户增长经验,有大型项目流量增长经验者优先; 2、具备优秀的数据分析能力,熟练使用sql等分析工具和数据分析方法; 3、优秀的沟通和协同能力,具备强烈的责任心和团队合作精神,能够有效协调跨部门资源,推动项目成功落地; 4、对互联网产品运营有深入理解,对行业发展趋势有敏锐的洞察力。 岗位亮点 1.重点业务核心项目,有充分的独当一面的策略制定和产品运营的职责空间,岗位具备高成长性; 2.团队氛围好,鼓励交流和分享,信息开放透明;
-
主要职责: 1. 承担大数据平台日常数据开发、运维工作; 2. 承担ODS ETL相关工作,主要包含数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 参与数据治理工作,保障数据质量; 4. 承担相关报表的数据准备,利用BI工具开发相关业务报表; 5. 完成部门布置的其他与数据相关任务。 招聘要求: 1. ***大学本科及以上学历,计算机或数学相关专业,3-5年与数据相关工作经验; 2. 熟悉大数据主流开发框架:Hive、Hadoop、Flink、Sqoop等常用组件的使用,具备性能调优经验者优先; 3. 熟悉数据仓库使用及优化,深入了解数据仓库体系及实施,有实际支撑业务场景经验; 4. 数量掌握SQL、Python等编程语言,具备Java实际项目经验者优先; 5. 善于沟通,对数据具有一定敏感度,能快速理解业务背景,能承担工作压力,具备良好的适应能力。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营; 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先。
-
*必须有独立完成 B端 完整数据产品项目的经验 *若熟悉AI大模型相关产品和应用场景,有大模型落地经验优先 岗位职责 1、负责公司快消品渠道数字化产品,包括但不限于商圈管理、渠道管理、品项管理和路线规划。能独立与业务部门、开发、算法等团队对接,确保现有产品和技术高效、高质量迭代和落地; 2、深入了解AI大模型相关知识,负责ToB业务的大模型 能力接入和验证; 3、通过数据分析和客户调研,及时调整产品方向、优化产品功能,通过定期迭代优化客户体验; 职位要求 1、本科及以上学历,2年以上大数据类产品工作经验 ; 2、具备良好的需求洞察、业务分析、自学和沟通协调能力,能够独立完成产品功能设计并形成方法论; 3、熟悉AI大模型相关产品和应用场景,有大模型落地经验、NLP、机器学习、推荐、策略产品等经验者优先; 4、有统计或机器学习的知识或者背景优先; 5、有快消行业经验优先; 6、能够承受一定强度的工作压力;
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。