-
职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:飞书作为先进的企业协作与管理平台,是字节跳动在B端与企业服务领域的重要布局。不仅一站式整合办公协作套件,更提供高效的组织管理、业务管理和 AI 智能伙伴等先进工具,帮助组织和个人为 AI 时代做好准备。各行业越来越多先进企业,都选择与飞书共创行业最佳实践。先进团队,先用飞书。 1、负责海量数据的处理,在分布式技术、存储平台基础上构建稳定、高效的数据链路,打造可视化数据产品; 2、负责数据建模以及数据仓库应用产品的设计和开发,完成离线、实时数据建设; 3、负责数据加工流程的优化,解决海量数据相关技术问题和性能优化。 职位要求: 1、本科及以上学历在读,计算机相关专业; 2、对数据开发、分析、挖掘领域有兴趣和热情,有志于在大数据领域长期发展; 3、了解Hadoop生态系统,掌握SQL/Hive/Spark/Flink中的多项; 4、熟练掌握至少一种编程语言Python、Scala、Java、Go等; 5、实习时间:每周不少于4天,连续3个月以上。
-
职位职责: 团队介绍:Ads Infra(广告系统架构)是负责建设字节跳动中国区广告业务架构与基础架构的中台团队。Ads Infra的工作职责包括:负责字节跳动中国区的广告投放系统、广告算法服务和深度学习能力的架构设计与实现;负责抖音、今日头条等各端上的广告业务中台系统研发;负责构建高并发、高性能、高可用的服务框架,设计和研发多数据中心的广告系统架构。我们一端链接广告主的海量营销需求,一端承载字节跳动中国区产品、媒体合作伙伴的海量流量,依托可靠的计算广告技术和深度学习能力,精准匹配广告与用户需求,让营销更高效、更智能、更可持续。 1、针对广告/推荐/搜索等场景,优化模型训练/推理的计算图执行效率; 2、通过编译优化、模型并行优化、图融合、高性能算子开发、低精度计算、Memory复用、Cache优化、高并发服务请求优化等技术,打造业界领先的高性能训推引擎; 3、设计和开发高性能算子库,研究最新的GPU计算技术和优化方法,以充分利用GPU/NPU的并行计算能力,支持各种机器学习和深度学习模型的构建和部署; 4、负责机器学习系统前瞻技术的调研和引入,例如最新硬件架构、异构计算系统、GPU优化技术、编译优化技术的引入和落地。 职位要求: 1、本科及以上学历,计算机、软件工程等相关专业,具备扎实的计算机基础; 2、熟悉Linux操作系统和开发环境,熟练掌握C/C++/Python等一种或多种编程语言并深入了解语言特性,具备良好的数据结构、算法基础和系统设计能力; 3、拥有强烈的求知欲、优秀的学习和沟通能力; 4、熟悉至少一种机器学习框架(PyTorch/TensorFlow/PaddlePaddle或其他自研框架),熟练掌握分布式系统原理,参与过大规模分布式系统的设计、开发和维护。 加分项: 1、熟悉主流高性能并行编程技术,有GPU编程经验(CUDA或Triton); 2、有TensorRT/Cutlass开发经验,熟悉TRT-LLM、VLLM等推理框架; 3、熟悉开源ML编译器代码(XLA/MLIR/TVM)并有相关开发经验; 4、熟悉PyTorch、FSDP、DeepSpeed、Megatron等业界主流分布框架的使用和原理。
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
美团核心本地商业-下沉市场发展部于2015年成立,通过招募优质的合作商伙伴并对其业务经营能力、组织能力等赋能,以期为下沉城市提供一站式的本地生活服务。 下沉市场发展部的业务场景涵盖了外卖餐饮、团购、拼好饭、闪购、医药等多元化的生活服务领域,同时搭建了一套稳定、高效的即时配送网络,为更多本地用户提供品质化、多样化、便捷高效的生活服务体验,为当地商户提供数字化发展机遇、提升数字化水平,为社会创造更多的就地就业机会。 截至2024年6月,下沉市场发展部已开拓全国4000+县区市,帮助百万商户实现本地生活服务数字化,日订单量突破千万,为数十万名骑手提供就业岗位,让本地生活服务逐渐成长为地方新基建,实现美团“帮助大家吃得更好,生活更好”的使命! 岗位职责 1、负责部门内部的文化传播,包含但不局限于挖掘标杆、故事访谈、栏目撰写等。 2、负责部门文化运营工作,如沟通会、关怀落地、文化活动。 3、支持部门大区运营相关项目工作或活动,及主管交付的其他工作内容。 岗位基本需求 1、具备年轻化传播思维,有网感、有活力。 2、执行力强、善于思考、自驱力强、乐于学习。 3、写作、逻辑、思考能力突出。 4、如有大厂文化相关实习经验or自媒体运营经验优先。 岗位亮点 全方位了解美团多条核心业务线;提供给学生成长机会和学习的组织氛围;团队nice,好玩有趣。
-
岗位名称:考研数学老师 工作职责: 1. 教授考研数学课程,为学生提供专业的教学服务; 2. 根据学生情况制定合适的教学方案,帮助学生提高数学成绩; 3. 定期参加教学教研活动,不断提升教学质量和教学效果; 任职要求: 1. 数学或相关专业本科及以上学历,有考研教学经验者优先; 2. 热爱教育事业,有耐心和责任心,能够与学生进行良好的互动; 3. 具备良好的教学组织能力,能够科学合理地安排教学进度和课程安排; 4. 具备优秀的沟通能力,能够与学生和家长进行有效的沟通,及时反馈学生的学习情况; 5. 具备一定的教育心理学知识,能够根据不同学生的学习特点制定针对性的教学方案; 6. 拥有教师资格证或相关教学经验者。
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
岗位职责 1. 选择并且维护招聘渠道,沟通、邀约及面试候选人、进行薪资谈判、安排候选人入职; 2. 协助雇主品牌建设工作,拓展和更新有关宣传渠道; 3. 配合开展行业人才MAPPING研究工作。 任职要求 1. 23届及之后毕业的本科或研究生在校学生,有人力相关实习经验者优先; 2. 可保证每周实习至少4天,实习周期至少3个月; 3. 良好的沟通能力,逻辑思路清晰; 4. 喜欢挑战性的工作,性格开朗,具备较强的自我驱动力。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
云计算高级专家岗位要求 1.本科及以上学历,计算机相关专业,年龄40周岁及以下,有自驱力,敢于突破。 2.具有云计算相关的高级认证资格(如AWS、阿里云、华为云、天翼云专业级认证等),熟练掌握多种云计算平台的架构和操作,熟悉云计算技术的最新发展趋势,具有丰富的架构设计和方案实施经验。 3.具有10年以上相关工作经验,熟悉云计算架构、服务器、存储、网络、安全、虚拟化、分布式等技术,熟练掌握多种编程语言,具有大规模虚拟化、容器化部署和大型项目实战经验。 4.具有较强的团队管理、业务理解和沟通能力,能够快速识别并解决系统故障和性能问题,提出创新的解决方案,能够与业务部门紧密合作,理解业务需求并提供解决方案,带领团队完成云计算相关项目和任务。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
职位职责: ByteIntern:面向2025届毕业生(2024年9月-2025年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:飞书企业应用团队,以打造高品质的商业 SaaS 产品,建设长期健康增长的商业模式为目标;同时创造及选取先进工具建设字节跳动的企业数字化能力,为字节跳动在多业态领域的发展提供有力保障。 我们正在招募富有潜力,才华横溢的同学,探索和研究互联网时代的企业应用产品,助力企业借助工具创新实现企业发展,期待你的加入! 1、设计和开发面向SaaS ToB 的数据系统; 2、负责数据应用产品系统建设工作、需求分析、技术研究和实现,包括但不限于企业级报表服务,自助BI产品,画像服务、可扩展的数据存储方案、分布式搜索引擎技术; 3、负责团队服务质量、稳定性,从工具、系统上提升团队开发效率,对重点及有难度的技术攻坚。 职位要求: 1、2025届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、良好的设计和编码习惯,热爱写代码; 3、有数据建模经验,熟悉维度建模理论,具备行业迁移能力; 4、具有良好的协调、沟通、表达能力,工作作风严谨,能承受压力; 5、有企业组织生产关系数据建模经验优先; 6、每周可实习4天及以上,可实习3个月以上。