• 7k-9k 经验不限 / 硕士
    人工智能服务,IT技术服务|咨询,数据服务|咨询 / B轮 / 50-150人
    【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
  • 5k-8k 经验在校/应届 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:飞书作为先进的企业协作与管理平台,是字节跳动在B端与企业服务领域的重要布局。不仅一站式整合办公协作套件,更提供高效的组织管理、业务管理和 AI 智能伙伴等先进工具,帮助组织和个人为 AI 时代做好准备。各行业越来越多先进企业,都选择与飞书共创行业最佳实践。先进团队,先用飞书。 1、负责海量数据的处理,在分布式技术、存储平台基础上构建稳定、高效的数据链路,打造可视化数据产品; 2、负责数据建模以及数据仓库应用产品的设计和开发,完成离线、实时数据建设; 3、负责数据加工流程的优化,解决海量数据相关技术问题和性能优化。 职位要求: 1、本科及以上学历在读,计算机相关专业; 2、对数据开发、分析、挖掘领域有兴趣和热情,有志于在大数据领域长期发展; 3、了解Hadoop生态系统,掌握SQL/Hive/Spark/Flink中的多项; 4、熟练掌握至少一种编程语言Python、Scala、Java、Go等; 5、实习时间:每周不少于4天,连续3个月以上。
  • 6k-8k 经验在校/应届 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: ByteIntern:面向2025届毕业生(2024年9月-2025年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、参与集团信息系统部离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,接近百亿条级别的业务数据,对其存储、计算、分析; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,可视化的全流程; 4、构建设计良好的数据流、数据仓库、数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2025届本科及以上学历在读,计算机等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++ 中任意一门编程语言; 4、有大数据集、分布式计算工具(Map/Reduce,Hadoop,Hive等)工作经验优先; 5、思路清晰,善于思考,有很强的数据分析能力,能独立分析问题并推动解决问题。
  • 12k-18k 经验不限 / 大专
    移动互联网,数据服务 / 未融资 / 500-2000人
    岗位职责: 1、负责智能运维产品的运维,包括系统监控、自动化运维、CMDB、性能优化等工作; 2、负责日常故障处理,优化运维流程和规范,完善运维知识库的建设; 3、负责开发相关运维工具,提高运维效率; 4、善于思考,能够独立完成运维相关的技术问题; 5、较强的逻辑思维,学习能力和解决问题的能力,可承担一定的工作压力。 任职要求: 1、大专及以上学历,3年以上linux系统生产环境维护经验,有红帽RHCA认证优先; 2、精通至少一门脚本语言shell、python、power shell; 3、熟悉linux、windows操作系统,掌握常用开源软件如Nginx、Redis、 mysql; mongodb、MQ、Hadoop、CDH相关组件以及Zabbix、ELK等系统的配置、管理和优化,有zabbix认证优先; 4、熟悉git, jenkins, nacos等自动化运维配置管理工具,有CMDB、部署发布、监控等运维工具平台开发经验者优先; 5、喜欢深入钻研技术,能高标准输出技术产物; 6、有责任感,工作积极进取,乐于持续主动学习,抗压性强,具备良好的服务意识和团队合作精神; 7、有运维项目管理经验者优先,如PMP、ITIL、软考高项认证优先。
  • 8k-15k 经验在校/应届 / 本科
    数据服务|咨询,人工智能服务 / 不需要融资 / 50-150人
    岗位职责: 1、参与公司产品技术开发; 2、在资深技术人员指导下有机会学习系统架构设计,并可在开发团队中承担部分模块代码开发,文档编写职责。 任职要求: 1、211、985院校毕业,软件开发及计算机相关专业,本科(需提供**成绩)以上学历; 2、有在校或实习Java开发经验,具备一定的编程基础,了解高性能的设计、编码及性能调优; 3、对各种开源的框架,如Spark、storm、rabbitmq、dubbo、zookeeper、hadoop、elk等有一定的学习和了解者优先; 4、了解Oracle/Mysql、mongodb、hbase、redis等数据库,了解数据库性能优化相关技术和原理者优先; 5、有强烈的进取心和责任感,有团队合作精神,乐于学习,专注成长。
  • 4k-6k 经验在校/应届 / 硕士
    移动互联网,文娱丨内容 / 上市公司 / 2000人以上
    【哔哩哔哩人工智能算法实习生】(内容安全) 工作职责: 1、 参与公司内容安全相关的AI算法设计与研发并进行业务工程落地,包括但不限于风险分析、文本/图像安全风险识别、多模态内容理解等 2、 参与相关学术研究并应用前沿技术 职位要求: 1、有nlp/cv/多模态领域的理论背景和实践经验;熟悉机器学习算法,或有数据挖掘、样本清洗等经验 2、熟练使用sql和python。熟悉pytorch或者tensorflow、熟悉linux基本操作和git 3、有大数据工具(hadoop/hive/spark)的使用经验以及后端服务开发经验者优先 4、具备比较强的论文复现能力,以及比较好的论文阅读习惯 5、 加分项:a. 在nlp/cv领域的国际**会议/期刊上一作发表论文、或相关国际比赛获奖;b. 对语言和新兴文化充满兴趣。B站深度用户优先
  • 教育,数据服务 / 不需要融资 / 15-50人
    数据分析、大数据、人工智能、区块链培训讲师 工作地点:成都/全国 工作性质:全职/兼职 薪资:面谈 要求: 1. 熟悉数理统计、商业智能、数据分析、数据挖掘、可视化、大数据等理论内容之一。 2. 熟练运用SPSS、SAS、R、EXCEL、Python等软件之一。 3. 有一定的项目实战经验 4. 熟悉hadoop生态,具备数据挖掘项目能力, 5.对任何数据领域有一定特长皆可考虑 各层次培训需求都会有,有共同创业精神考虑的朋友可以提出交流。 欢迎有志于CDA数据科学事业的朋友加入。
  • 6k-8k·14薪 经验在校/应届 / 本科
    人工智能服务,IT技术服务|咨询 / B轮 / 500-2000人
    岗位职责: 1.参与工业互联网平台的对外运营工作,包括平台部署、技术工单处理、漏洞修复; 2.参与相关项目实施保障,配合项目组完成平台运营维护相关任务; 3.编制运营相关文档、手册,制作平台运营能力所需的内外部文档材料; 4.参与运营管理标准与规范,并配合上级推进执行。 任职要求: 1.本科以上学历,计算机科学、软件工程、网络工程、计算机网络技术电子科学等理工类专业。 2.具有云计算平台技术运维工作经验,熟悉容器技术底层原理和K8S架构,熟悉云原生技术; 3.对Hadoop的大数据体系有深入认识,不限于Hadoop、Hive、HBase、Yarn、Spark、Flink、Kafka、ES等大数据项目,具备集群搭建、管理、配置优化经验者优先; 4.熟悉自动化运维及监控相关工具软件,熟悉ansible脚本等优先;操作系统、网络、数据库等基础扎实,能够从原理上分析和解决问题,熟悉至少一种脚本语言(Shell、Python),能够编写执行脚本; 5.熟悉实施文档、部署文档的编制工作; 6.具备良好的语言表达与文档编写能力,乐于为各类用户解决平台相关问题,并持续促进平台改进;
  • 2k-3k 经验在校/应届 / 本科
    人工智能服务,IT技术服务|咨询 / B轮 / 500-2000人
    岗位职责: 1.参与工业互联网平台的对外运营工作,包括平台部署、技术工单处理、漏洞修复; 2.参与相关项目实施保障,配合项目组完成平台运营维护相关任务; 3.编制运营相关文档、手册,制作平台运营能力所需的内外部文档材料; 4.参与运营管理标准与规范,并配合上级推进执行。 任职要求: 1.本科以上学历,计算机科学、软件工程、网络工程、计算机网络技术电子科学等理工类专业,可实习至少3个月以上; 2.具有云计算平台技术运维实习工作经验,熟悉容器技术和K8S架构,熟悉云原生技术; 3.对Hadoop的大数据体系有了解,不限于Hadoop、Hive、HBase、Yarn、Spark、Flink、Kafka、ES等大数据项目,具备集群搭建、管理、配置优化经验者优先; 4.熟悉自动化运维及监控相关工具软件,熟悉ansible脚本等优先;操作系统、网络、数据库等基础扎实,能够从原理上分析和解决问题,熟悉至少一种脚本语言(Shell、Python),能够编写执行脚本; 5.熟悉实施文档、部署文档的编制工作; 6.具备良好的语言表达与文档编写能力,乐于为各类用户解决平台相关问题,并持续促进平台改进;
  • 2k-3k 经验在校/应届 / 本科
    其他 / 不需要融资 / 2000人以上
    岗位职责 1.制定和维护数据治理框架,包括数据质量、数据安全和数据合规性。 2.与业务部门合作,确保数据治理政策与业务需求相符合。 3.监控数据治理政策的执行情况,定期进行审计和评估。 4.管理数据分类和数据生命周期。 5.协调数据治理相关的项目和倡议。 6.为数据治理相关的技术和工具提供支持和指导。 7.确保数据治理流程符合相关法律法规和行业标准。 任职要求 1.计算机类相关专业本科以上学历(优秀者学历与专业适当放宽)。 2.强大的分析和解决问题的能力。 3.优秀的沟通和人际交往能力。 4.熟悉SQL、数据仓库和ETL工具。 5.熟悉Hadoop、Spark和Flink等分布式框架使用与运维。 6.熟悉java、python、C等其中至少一种开发语言。 7.有使用数据治理工具,ETL工具(如kettle)的经验者优先。
  • 5k-6k 经验在校/应届 / 不限
    人工智能服务 / 未融资 / 50-150人
    岗位职责: 1. 负责大数据项目的开发、维护和优化,包括数据采集、存储、处理、分析和可视化等环节; 2. 深入研究大数据技术,包括但不限于Hadoop、Hive、HBase、Spark、Flink等; 3. 参与大数据平台的设计和搭建,协助解决项目中的技术难题; 4. 编写技术文档,包括项目开发文档、技术白皮书等; 5. 完成上级领导交付的其他相关工作。 任职要求: 1. 本科及以上学历,计算机相关专业,可接受应届毕业生; 2. 熟悉Java、Python等编程语言,具备良好的编程基础; 3. 对大数据技术感兴趣,有强烈的学习意愿和能力; 4. 具备良好的逻辑思维能力、沟通能力和团队协作精神; 5. 薪资范围:5-6k,根据个人能力可面议。 公司福利: 1. 享有国家法定节假日、年假、婚假等带薪假期; 2. 入职即购买五险一金,提供年终奖、项目奖金等; 3. 提供完善的培训体系和职业发展通道; 4. 舒适的办公环境,团队氛围融洽; 5. 定期举办员工活动,提供丰富的员工生活。 工作地点:深圳市南山区 欢迎有志之士加入我们的团队,共同发展!
  • 14k-26k·15薪 经验在校/应届 / 本科
    金融 / 上市公司 / 2000人以上
    岗位职责: 1、参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台; 2、参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等; 3、参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设; 4、参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 任职要求: 1、本科及以上学历,计算机、软件工程、统计学或相关专业出身,具备良好的问题解决能力; 2、掌握Java, Python等至少一门编程语言; 3、熟悉大数据生态技术栈,了解Hadoop,Hive,Spark,Flink中的一种或几种,有相关开发经验更佳; 4、熟悉数据仓库方法论或者有实战经验是加分项; 5、做事严谨有责任心,以及良好的沟通协调能力是加分项; 6、良好的英文文献阅读能力。
  • 10k-20k 经验不限 / 本科
    通讯电子 / 不需要融资 / 2000人以上
    职位诱惑: 全球化工作环境,有竞争力的薪酬,快速成长 职位描述: 职位描述: 1. 我们聚焦5G主航道,构筑产品核心竞争力,构建下一代无线智能网管,构建无线网络的智能驾驶能力。 2. 产品向云化,智能化,自动化的全栈技术演进,软件能力需求旺盛,您所有的软件能力都被我们需要。 3. 产品架构开放,涉及技术广泛,适合应用软件开发爱好者大展拳脚。 4. 诚邀有能力,有想法,有理想的你,为全球5G商用与无线网络智能化运维提供智慧的大脑! 产品介绍:https://carrier.huawei.com/cn/products/wireless-network/mae 岗位职责 1、负责MAE-M云化软件中的重点模块、微服务、子系统的需求分析、设计及关键代码开发。 2、负责改进软件产品的性能、可扩展性、稳定性及安全性,负责关键技术的提前验证,消除版本落地的技术风险。 3、负责所属业务模块的可信及安全需求看护,包含设计/开发/优化等持续性优化工作。 任职要求: 1、熟悉Java、C++、Web、Python等主流开发语言中的一种。 2、具备高并发、微服务、分布式数据库、云计算、公有云、私有云和分布度调度等开发经验者优先考虑。 3、有Redis、Kafka、ZooKeeper、Hadoop、Spark经验者优先。
  • 6k-8k 经验在校/应届 / 硕士
    人工智能服务,IT技术服务|咨询,数据服务|咨询 / B轮 / 50-150人
    【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。 工作地址
  • 10k-18k·14薪 经验不限 / 本科
    移动互联网 / 不需要融资 / 150-500人
    说明:公司的数据量PB级别,非常有挑战,机遇难得。 岗位职责: 1.负责大数据主流技术组件的基准测试以及与业务结合的性能测试。 2.负责主流实时、离线大数据架构体系研究及分享。 3.负责或参与大数据项目底层业务需求的分析、沟通、确认及实现。 4.负责或参与大数据项目底层的架构设计、设计评审、代码实现和评审。 5.参与项目上线后的性能监控、分析、调优等工作,保障系统的正常运行。 岗位要求: 1、计算机或相关专业,本科以上学历,1年或1年以上java开发经验。 2、熟悉JAVA编程,熟悉多线程开发、分布式开发,具备较扎实的编程基础和良好编程习惯。 3、熟悉Linux,熟悉Shell命令操作,执行安装部署程序及简单运维。 4、熟悉HaDoop生态,能熟练使用JAVA进行MapReduce、Spark等技术开发,熟悉分布式性能调优者优先考虑。 5、具备主人翁精神和团队精神,沟通协调表达较好,有上进心,能承受一定压力。 6、优秀java开发经验者或优秀的毕业生可考虑培养。