• 2k-3k 经验在校/应届 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: ByteIntern:面向2025届毕业生(2024年9月-2025年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:飞书企业应用团队,以打造高品质的商业 SaaS 产品,建设长期健康增长的商业模式为目标;同时创造及选取先进工具建设字节跳动的企业数字化能力,为字节跳动在多业态领域的发展提供有力保障。 我们正在招募富有潜力,才华横溢的同学,探索和研究互联网时代的企业应用产品,助力企业借助工具创新实现企业发展,期待你的加入! 1、设计和开发面向SaaS ToB 的数据系统; 2、负责数据应用产品系统建设工作、需求分析、技术研究和实现,包括但不限于企业级报表服务,自助BI产品,画像服务、可扩展的数据存储方案、分布式搜索引擎技术; 3、负责团队服务质量、稳定性,从工具、系统上提升团队开发效率,对重点及有难度的技术攻坚。 职位要求: 1、2025届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、良好的设计和编码习惯,热爱写代码; 3、有数据建模经验,熟悉维度建模理论,具备行业迁移能力; 4、具有良好的协调、沟通、表达能力,工作作风严谨,能承受压力; 5、有企业组织生产关系数据建模经验优先; 6、每周可实习4天及以上,可实习3个月以上。
  • 2k-3k 经验在校/应届 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: ByteIntern:面向2025届毕业生(2024年9月-2025年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:飞书企业应用团队,以打造高品质的商业 SaaS 产品,建设长期健康增长的商业模式为目标;同时创造及选取先进工具建设字节跳动的企业数字化能力,为字节跳动在多业态领域的发展提供有力保障。 我们正在招募富有潜力,才华横溢的同学,探索和研究互联网时代的企业应用产品,助力企业借助工具创新实现企业发展,期待你的加入! 1、设计和开发面向SaaS ToB 的数据系统; 2、负责数据应用产品系统建设工作、需求分析、技术研究和实现,包括但不限于企业级报表服务,自助BI产品,画像服务、可扩展的数据存储方案、分布式搜索引擎技术; 3、负责团队服务质量、稳定性,从工具、系统上提升团队开发效率,对重点及有难度的技术攻坚。 职位要求: 1、2025届本科及以上学历在读,计算机、软件工程等相关专业优先; 2、良好的设计和编码习惯,热爱写代码; 3、有数据建模经验,熟悉维度建模理论,具备行业迁移能力; 4、具有良好的协调、沟通、表达能力,工作作风严谨,能承受压力; 5、有企业组织生产关系数据建模经验优先; 6、每周可实习4天及以上,可实习3个月以上。
  • 电商平台 / C轮 / 2000人以上
    一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、建设机器学习/深度学习平台,根据实际业务场景和需求,优化平台能力; 2、建设灵活的AI开发组件,支持业务打造定制化AI平台及业务。 岗位要求: 1、计算机及相关专业本科及以上学历,具有扎实的代码功底,熟悉常用的算法和数据结构; 2、精通Java语言,熟悉了解Python语言,具有良好的编程习惯,熟悉多线程编程,内存管理,设计模式和Linux开发环境; 3、熟悉Hadoop/Hive/Spark/Flink等计算框架,熟悉Docker技术及Kubernetes容器调度系统; 4、熟悉业界主流的机器学习平台,有机器学习平台研发经验者优先; 5、有Tensorflow/PyTorch等机器学习框架使用经验者优先; 6、有AutoML、自动特征工程系统设计经验者优先; 7、良好的团队合作和协调沟通能力,学习能力强,自我驱动力强,紧跟机器学习的发展动态。
  • 18k-30k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 25k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
  • 17k-25k 经验1-3年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、 负责前沿运营工具产品的日常运维工作,包括系统的运行监控、值班oncall、事件响应及处理、用户服务请求,从业务操作、系统功能特性、接口逻辑等运用角度,对问题进行诊断及跟进解决; 2、 负责运维主动预防工作,从应用系统架构、监控、容量、性能等方面进行分析以提前发现隐患问题,并推动优化解决,不断提高系统运行稳定性; 3、 负责应用系统重大故障快速诊断及解决,跟进及推动故障改进措施实施;制定系统运行应急方案,并使用应急预案优先恢复应用系统; 4、 负责与业务部门交互沟通,协调研发部门、基础架构部门完成运维需求交付,并提供运维服务报告。 任职要求 1、计算机相关专业本科及以上学历; 2、具备很强的ownership、团队协作意识,善于主动思考与自我驱动,很好的技术敏感度和风险识别能力,能承受工作压力; 3、两年及以上应用系统运维或基础架构运维经验,熟悉IT运维相关工作,对监控工具、自动化运维等技术领域有较深了解,对监控方法有较好的理论基础; 4、对操作系统、数据库、中间件、网络、云平台、容器化等一个或多个技术领域有一定运维经验,能够从技术的角度分析异常; 5、良好的系统分析、解决问题的能力,具备清晰的逻辑思维和推理能力,较强的工作推动力;良好的沟通和表达能力; 6、熟悉以下几种技术中的两种或以上:Linux/Unix基本维护和操作,python/perl等脚本语言,Hadoop、Druid、Clickhouse等大数据组件运维,Java应用平台架构,数据库性能优化技术。
  • 8k-14k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    一、公司简介 彩讯股份(创业板股票代码:300634)是一家软件互联网上市公司,是协同办公、 智慧渠道、云和大数据领域的龙头企业。拥有五地研发中心和遍布全国的运营网络,员工超过 3000 人。 公司坚持“以大场景运营效果为导向,全面数字化、智能化”的发展战略,持续加大在人工智能等领域的投入,将成为中国领先的智能数字化企业。 二、项目介绍: 中国移动云盘是中国移动面向所有用户推出的一款安全、智能、不限速、移动用户免流量的产品。产品涵盖存储备份、多端同步、在线管理、群组分享四大核心能力。云盘是继语音、短信、流量之后的“新基础服务”。 三、岗位介绍: 【岗位职责】: 1、工作内容:故障处理、问题跟踪及时通报、系统巡检及系统优化、应用系统安全加固、及时发现/处理和彩云自研平台问题。 2、监控告警支撑:收集整理主机和业务监控项需求,接入统一监控平台实现自动监控告警;故障告警的跟进和处理 3、系统优化:对所维护服务进行脚本编写自动的巡检、自动化故障分析及服务恢复; 4、重大节假日、重要保障活动按要求值班。 5、其他支撑工作:根据项目安排做好其他运维支撑工作。 【岗位要求】: 1、学历要求:*****本科及以上学历(学信网可查),重本学历优先; 2、熟悉TCP/IP协议,熟悉Windows,熟练掌握liunx操作系统维护; 3、熟悉nginx/apache/tomcat/php/ Zookeeper等应用服务的配置和优化; 4、熟悉容器化技术,对Docker、Keepalive和Docker Swarm集群或者 K8S、openshift有一定了解及一定的使用经验; 5、熟练shell/python任一脚本编程进行日常维护, 能利用awk和sed工具对日志进行分析与统计; 6、了解nagios/zabbix等常规的监控软件使用和配置; 7、了解高负载、高可用的服务器架构,熟悉memcached/redis等缓存中间件; 8、熟悉使用SVN/Git/Puppet/Ansible等自动化运维工具; 9、具备独立解决问题以及团队配合能力,良好的方案文档撰写能力以及沟通能力。 10、工作中善于使用AI工具,高效完成工作; 11、有开源作品或者技术博客,关注技术社区/论坛,有活跃足迹者优先。 四、薪酬福利与职业发展: 我们提供竞争力的薪资待遇和福利待遇,包括期权激励、五险一金、带薪年假、节假日福利、健康体检、培训及晋升机会等。 同时,我们还为员工提供广阔的职业发展空间,鼓励员工在工作中不断成长和进步。 我们的团队充满活力、激情和创新精神,致力于打造一个开放包容、信任互助的工作环境,并定期举行各种团队建设活动,增强彼此之间的沟通和理解。 期待您的加入,一起探索未来无限可能!想更多了解彩讯股份,欢迎进入:https://www.richinfo.cn
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1. 参与服务于企业内部管理领域(企业IT)的AI应用开发平台的建设,使得该平台能够利用业界开闭源LLM模型能力及其他成熟的Agent组件,为管理领域的用户场景提供高效的AI应用构建能力; 2. 根据管理场景特点和需要,建设企业内部的相关AI组件(如特定的Agent)并纳入AI应用开发平台; 3. 能够灵活、创新地将各类机器学习相关算法、传统算法及数据挖掘技术运用到企业内部管理领用的具体数据和AI场景,根据数据特征和业务特点产出合适的智能解读、辅助决策或规划的产品能力,并结合至相关应用系统和BI系统; 4. 就具体场景或需求开发相关智能问答、Agent应用等AI应用产品。 岗位要求: 1. 本科及以上学历,计算机、自动化、统计学相关专业,3年以上开发经验,1年以上AI应用或AI平台相关开发经验; 2. 熟练掌握Python/C/C++等编程语言,掌握Pytorch/Tensorflow等开源深度学习框架; 3. 数学基础扎实,掌握概率论、数理统计、假设检验,对常见的机器学习算法、模型机器用用场景有深入理解,如归因分析模型、回归分析、聚类分析、时间序列、推荐算法等,并能够根据不同的场景科学应用不同的模型/算法产出业务价值; 4. 熟悉常见的深度学习算法(如 CNN、RNN、LSTM、GAN 等)及其应用场景; 5. 掌握LLM相关应用技术(RAG,Embedding,Rerank,Function-call、模型结构等); 6. 掌握AI Agent的工作机制和流程,能利用相关工具或框架完成指定场景Agent的开发; 7. 掌握LLM的Prompt相关优化和缩写技巧(COT、Few-shot、TOT、PS等),能够持续优化Prompt,提高LLM回答质量; 8. 在RAG、Agent、Text2SQL、智能对话、情感分析、摘要总结、信息抽取、知识图谱、NLP相关领域有实际项目经验者优先; 9. 具备强烈的技术热情和良好的学习能力、出色的问题分析解决能力,善于合作、乐于分享、责任心强,有基础的项目管理意识和能力。
  • 50k-100k 经验5-10年 / 本科
    通讯电子 / 不需要融资 / 2000人以上
    岗位要求: 教育背景要求:本科及以上 技能要求:良好的需求理解力、问题分析、归纳能力 、跨领域协调能力 知识要求: 1、优秀的洞察及架构能力,熟悉数字化经验及4A架构; 2、熟悉Transformer、增量预训练、SFT、RAG、Agent技术栈,有大规模集群上实践经验者优先; 3、对技术有热情,具备良好的沟通表达能力和团队精神,自驱力强; 岗位职责: 1、对齐供应链业务战略,联合业务领域识别业务挑战及应用机会点,制定AI应用战略及演进路标,规划并落地AI应用的系统及解决方案架构,牵引应用架构及技术架构的演进; 2、聚焦供应链的核心高价值业务场景,通过构建AI应用,赋能供应方案设计、供应资源决策、订单履行管理等,优化供应链作业及运作模式,提升工作效率、质量与客户/伙伴供应服务满意度。
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 20k-40k 经验3-5年 / 硕士
    工具类产品 / 上市公司 / 2000人以上
    岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
  • 18k-21k·16薪 经验3-5年 / 本科
    IT技术服务|咨询 / 未融资 / 50-150人
    岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。