-
30k-50k·15薪 经验3-5年 / 本科社交媒体 / 上市公司 / 2000人以上职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题,对系统架构设计有丰富的经验,能够给出合理的设计方案; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 三年以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 一年及以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
职位职责: 1、负责抖音AI搜索的例行评估、专项评估和策略迭代评估工作,对评估质量、数量和效率负责; 2、基于评估数据,能进行有效深入的数据分析并产出有观点有建议的分析报告,支持产品和策略迭代优化; 3、了解前沿的评测方法和工具,探索并引入更高效、更智能的评估方式,持续提升评估工作的效能和科学性; 4、跟产品和运营团队紧密协同,对齐评估标准、评估数据,推动评估体系紧跟业务目标,并能在团队内有效开展评估培训,形成良好的传帮带氛围。 职位要求: 1、本科及以上学历,3年以上的搜广推等领域的评测、分析、策略产品等工作经验,有团队管理经验者优先; 2、熟悉AIGC,并有1年以上的AI搜索、大模型应用(Agent)、智能硬件等场景的LLMs相关的评测或分析工作经验,理解模型的训练方法和过程,了解LLMs的评估指标体系; 3、以结果为导向,具备较强的项目协调和组织能力,能够结合各方资源有效地推进项目落地; 4、对数据敏感,擅长数据分析、有较强的逻辑思维能力、具备良好的总结归纳能力; 5、具备较强的自驱力、执行力、能进行跨部门沟通,工作细心责任心强。
-
职位职责: 1、负责搜索广告闭环本地行业客户增长产品能力建设与落地,从预算侧视角思考和设计投放产品和策略,优化投放链路,提升广告主跑量和ROI,撬动增量预算; 2、深入理解信息流竞价/搜索广告投放机制,通过数据分析挖掘当前广告投放策略存在的问题,并提出相应的优化方案; 3、与运营、销售团队高效协同,推动产品相关推广工作,并结合运营分析和问题收集,制定产品优化方向,推动产品不断迭代。 职位要求: 1、3年及以上竞价/搜索广告领域相关经验,算法、统计学、本地生活行业相关经验背景加分; 2、逻辑思维、学习能力和独立思考能力强,善于沟通,具备强烈的好奇心和自我驱动力,喜欢接受挑战,追求极致; 3、责任心强,能在较大压力和不确定性下保持积极工作状态,持续推动业务增长,追求极致。
-
高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
-
工作职责: 岗位职责: 1、持续关注并研究搜索领域的行业发展趋势、技术前沿及竞争对手动态,为公司搜索产品的创新提供市场洞察; 2、能够结合搜索整体定位及目标,制定产品中长期规划,不断完善产品功能及相关策略; 3、设计并优化搜索底层能力,包括召回策略、排序策略、重排策略等,以提升搜索结果的准确性和相关性; 4、负责搜索产品的功能设计,包括搜索入口、搜索中间页、搜索结果页等模块的优化; 5、监控并分析搜索产品的关键指标(如有点率、ctr、cvr等),评估搜索策略的效果。 任职资格: 任职要求: 1、对搜索产品充满热情,责任心强,积极主动,具有创新精神。 2、具备良好的逻辑思维能力和创新能力,能够独立思考并解决问题。 3、熟悉搜索引擎的工作原理和关键技术,了解搜索算法的优化方法。 4、具备良好的沟通能力和团队协作精神,能够与不同部门的人员有效协作。 5、具有2年以上搜索策略产品或推荐策略产品相关工作经验,有成功案例者优先。
-
岗位描述 快驴进货是美团旗下的餐饮供应链平台,帮助餐饮商户以更低成本、更高效率来获取安全可靠的食材供应,让餐饮采购更简单。快驴进货同步发展“自营+平台”的业务模式,在采购环节一方面向上游供应商直采大宗商品,另一方面引入各地批发商,助力平台伙伴共同发展;在销售环节既有自建团队进行市场、客户拓展,又帮助各地批发商拓展业务;同时自建仓储管理系统、配送网络与团队,为客户提供优质履约服务。 截至2022年,快驴进货布局了全国41个城市,为百万家商户提供“全、省、稳、好”的餐饮供应链服务。我们拥有3000+品牌食材、超5万SKU商品、超28万商品资质,并提供源头严审核、食品安全严把关、24小时无忧售后的全面保障,实现手机下单、送货上门的高效采购模式,帮百万商家节省了采购时间与成本,助力平台伙伴共同发展,在万亿市场共享机遇。 在这里,你将收获完善的员工发展机制及学习体系,与各界专家一起深度参与餐饮供应链业务的发展。欢迎优秀的你加入美团快驴进货,与我们一起成长,一起更好! 岗位职责 负责美团快驴商城的核心展位搜索、分类页的策略制定和产品设计 1、可以对搜索、分类展位的整体体验负责,制定目标、拆解策略; 2、深入理解搜索词背后的用户需求,可以对用户的采购场景进行细分,并针对性完成搜索、分类的设计; 3、通过优化搜索意图识别、召回、相关性和排序等策略和建设搜索工具,提升转化效率和用户体验; 4、协调研发和相关业务方推动策略落地,及时监控策略效果,根据实际反馈优化 岗位基本需求 1、有3年以上策略产品经验,交易相关的搜索推荐产品经验优先 2、对客户的使用场景和动机敏感,并做对应的客户分层分析和方案设计; 3、业务感知强,能深入理解业务阶段和问题,并针对性给出策略解决方案; 4、数据驱动导向,能熟练使用数据驱动和策略产品方法论确定优化方向,制定可量化的数据目标,对最终结果负责; 5、心态开放,善于学习; 6、会使用数据分析工具、熟练使用SQL,计算机或相关专业优先 岗位亮点 B端生鲜采购平台,业务发展空间大,产品话语权强
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
工作职责: 【岗位职责】 1、负责搜索推荐系统中算法模块的研究、设计和开发工作 2、通过召回、排序、重排等环节模型、策略的不断优化,持续提升点击率、转化率、GMV等业务指标 3、保持对业界大模型、深度学习、强化学习等前沿技术的跟进,并尝试在实际业务中落地应用 任职资格: 【技能要求】 1、计算机、数学等相关专业本科及以上学历,1年以上搜索、推荐或广告等方向算法经验 2、熟悉GBDT、DNN等常见机器学习算法,了解基本原理,具备应用实现能力 3、优秀的编码能力, 扎实的数据结构和算法功底,熟练使用Java、Python等主流开发语言中的一种 4、学习能力强,良好的团队精神和沟通表达能力