-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
美团金融服务平台成立于2016年,以“场景+金融”模式,携手合作伙伴构建开放生态,为美团平台用户和商户提供底层账户、支付通道、信贷、保险和理财等金融解决方案。我们致力于以科技为核心,助力金融机构打通金融普惠“最后一公里”。我们期待与大家共同完成每一件平凡而卓越的事情,一起为用户提供优质的产品体验,守护用户的资金安全,让生活变得更美好。 岗位职责 1. 基于大规模知识图谱数据,利用子图分析,社群发现,Graph Embedding等方法进行用户画像、用户客群的挖掘,为金融风控和营销领域智能决策问题提供支持; 2.独立完成机器学习模型构建的完整pipeline,包括数据分析、特征抽取、模型训练调优、模型评估及模型部署,完成建模过程中的各类代码开发; 3.关注业界前沿发展,结合业务特点进行突破创新,用技术推动业务发展; 岗位基本需求 1. 计算机、人工智能等相关专业; 2. 熟练掌握机器学习和深度学习相关基础理论和方法,精通C/C++/Java/Python/Scala中至少一种语言编程,有使用相关算法解决实际问题的经验,具备较好的工程实现能力; 3. 精通大模型和知识图谱领域相关知识,有实际的项目经验; 具备以下者优先 1. 在算法比赛(kaggle/acm/kdd cup等)有获奖经历的同学优先; 2. 在相关国际**会议上有论文发表或深入研究经历的同学优先; 3. 具有大数据相关系统(如Hadoop、Spark、Storm、Flink等)的使用经验者优先; 岗位亮点 -能够触达金服全部业务线,有充分的机会提升业务理解; -团队技术氛围好,紧跟大模型和图学习的技术前沿;
-
1、参与金融场景的大规模用户行为分析与建模; 2、参与个性化推荐场景算法工作,包括数据、算法和工程的全链路落地。 任职要求 1、计算机、数学或统计学相关专业本科及以上学历; 2、熟悉Linux,C++,Java和Python,优秀的编码与代码控制能力, 扎实的数据结构和算法功底; 3、熟悉大规模数据挖掘、机器学习,熟悉hadoop/hive,具备大数据查询分析能力; 4、快速学习 ,具备优秀的分析和解决问题的能力,良好的沟通协作能力。 5、实习期连续3个月以上,时间更长者优先 加分项: 1、有推荐系统、机器学习、信息检索、自然语言理解、计算广告学及算法博弈论相关领域研究及实践经验;
-
美团金融服务平台成立于2016年,以“场景+金融”模式,携手合作伙伴构建开放生态,为美团平台用户和商户提供底层账户、支付通道、信贷、保险和理财等金融解决方案。我们致力于以科技为核心,助力金融机构打通金融普惠“最后一公里”。我们期待与大家共同完成每一件平凡而卓越的事情,一起为用户提供优质的产品体验,守护用户的资金安全,让生活变得更美好。 岗位职责 1. 基于大规模知识图谱数据,利用子图分析,社群发现,Graph Embedding等方法进行用户画像、用户客群的挖掘,为金融风控和营销领域智能决策问题提供支持; 2.独立完成机器学习模型构建的完整pipeline,包括数据分析、特征抽取、模型训练调优、模型评估及模型部署,完成建模过程中的各类代码开发; 3.关注业界前沿发展,结合业务特点进行突破创新,用技术推动业务发展; 岗位基本需求 1. 计算机、人工智能等相关专业; 2. 熟练掌握机器学习和深度学习相关基础理论和方法,精通C/C++/Java/Python/Scala中至少一种语言编程,有使用相关算法解决实际问题的经验,具备较好的工程实现能力; 3. 精通大模型和知识图谱领域相关知识,有实际的项目经验; 具备以下者优先 1. 在算法比赛(kaggle/acm/kdd cup等)有获奖经历的同学优先; 2. 在相关国际**会议上有论文发表或深入研究经历的同学优先; 3. 具有大数据相关系统(如Hadoop、Spark、Storm、Flink等)的使用经验者优先; 岗位亮点 -能够触达金服全部业务线,有充分的机会提升业务理解; -团队技术氛围好,紧跟大模型和图学习的技术前沿;
-
工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析 2、协助总部研发进行数据导出 3、现场服务器运维 4、帆软报表开发 任职资格: 1、电子、计算机相关专业毕业。 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验;
-
工作职责: 1、协助现场项目经理进行电力数据加工聚合、简单分析; 2、协助总部研发进行数据导出; 3、现场服务器运维; 4、帆软报表开发。 任职资格: 1、大专及以上学历,计算机相关专业优先; 2、掌握Python编程语言,进行过简单的Python数据分析(相关性、回归等); 3、有linux相关经验,掌握linux操作; 4、有SQL相关经验,会使用MySQL数据库; 5、有Hadoop、Elasticsearch、Spark等相关技术经验。
-
职位职责: ByteIntern: 面向2025届毕业生(2024年9月-2025年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:抖音集团内容质量与数据服务平台(DOUYIN GROUP CONTENT QUALITY AND DATA SERVICE,简称CQC)是负责抖音集团今日头条、抖音、西瓜等产品内容安全与质量工作的团队,在各产品运营增长方面开展支持工作,为产品线提供数据服务的基础支持。平台下设内容质量中心、数据中心及运营支持中心,在全国10余个城市有业务分布。 1、关注和推进相关大模型技术在内容质量、质检的落地; 2、负责部门业务数据统计分析,分析跟踪业务变化,提出业务优化及管理改进建议,结合数据和AI能力驱动支持业务决策和管理。 职位要求: 1、2025届本科及以上学历在读,计算机科学、统计学、数学或相关专业优先; 2、对LLM有较深的了解,PE/SFT/RLHF有实践经验的优先; 3、熟悉SQL及大数据处理技术,至少掌握Hadoop/Hive/Spark/Flink其中一项;熟悉Python、有模型搭建经验者优先; 4、熟悉常规数据分析及挖掘方法,包括特征工程、统计学习、分类聚类等; 5、表达沟通能力强,善于在跨部门沟通中协调资源,善于学习,思维活跃,善于从数据中发现、思考并解决问题。
-
职位职责: ByteIntern: 面向2025届毕业生(2024年9月-2025年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:抖音集团内容质量与数据服务平台(DOUYIN GROUP CONTENT QUALITY AND DATA SERVICE,简称CQC)是负责抖音集团今日头条、抖音、西瓜等产品内容安全与质量工作的团队,在各产品运营增长方面开展支持工作,为产品线提供数据服务的基础支持。平台下设内容质量中心、数据中心及运营支持中心,在全国10余个城市有业务分布。 1、关注和推进相关大模型技术在内容质量、质检的落地; 2、负责部门业务数据统计分析,分析跟踪业务变化,提出业务优化及管理改进建议,结合数据和AI能力驱动支持业务决策和管理。 职位要求: 1、2025届本科及以上学历在读,计算机科学、统计学、数学或相关专业优先; 2、对LLM有较深的了解,PE/SFT/RLHF有实践经验的优先; 3、熟悉SQL及大数据处理技术,至少掌握Hadoop/Hive/Spark/Flink其中一项;熟悉Python、有模型搭建经验者优先; 4、熟悉常规数据分析及挖掘方法,包括特征工程、统计学习、分类聚类等; 5、表达沟通能力强,善于在跨部门沟通中协调资源,善于学习,思维活跃,善于从数据中发现、思考并解决问题。
-
岗位职责: 1、大数据应用或产品的需求调研、开发、迭代、测试等; 2、制定数据建模、数据处理等技术规范并落地实施; 3、数据模型设计,在充分理解业务的基础上不断完善和优化已有数据产品的功能,提供各类运营BI报表及决策分析; 4、不断学习和探索新的数据处理方法和工具,保持技术的领先优势。 任职要求: 1、熟悉Oracle/Redis等主流数据数据库; 2、熟悉JAVA/SCALA/C++/python至少一种,有扎实的开发功底; 3、熟悉可视化分析,各种BI算法和产品等; 4、了解大数据解决方案包括Hadoop、Spark、Storm、机器学习、深度学习等大数据解决方案; 5、了解容器、虚拟化、微服务框架等相关技术。 6、具有数据分析/数据产品研发/机器学习等工作经验者优先。
-
岗位职责: 1.参与工业互联网平台的对外运营工作,包括平台部署、技术工单处理、漏洞修复; 2.参与相关项目实施保障,配合项目组完成平台运营维护相关任务; 3.编制运营相关文档、手册,制作平台运营能力所需的内外部文档材料; 4.参与运营管理标准与规范,并配合上级推进执行。 任职要求: 1.本科以上学历,计算机科学、软件工程、网络工程、计算机网络技术电子科学等理工类专业。 2.具有云计算平台技术运维工作经验,熟悉容器技术底层原理和K8S架构,熟悉云原生技术; 3.对Hadoop的大数据体系有深入认识,不限于Hadoop、Hive、HBase、Yarn、Spark、Flink、Kafka、ES等大数据项目,具备集群搭建、管理、配置优化经验者优先; 4.熟悉自动化运维及监控相关工具软件,熟悉ansible脚本等优先;操作系统、网络、数据库等基础扎实,能够从原理上分析和解决问题,熟悉至少一种脚本语言(Shell、Python),能够编写执行脚本; 5.熟悉实施文档、部署文档的编制工作; 6.具备良好的语言表达与文档编写能力,乐于为各类用户解决平台相关问题,并持续促进平台改进;
-
岗位职责: 1.参与工业互联网平台的对外运营工作,包括平台部署、技术工单处理、漏洞修复; 2.参与相关项目实施保障,配合项目组完成平台运营维护相关任务; 3.编制运营相关文档、手册,制作平台运营能力所需的内外部文档材料; 4.参与运营管理标准与规范,并配合上级推进执行。 任职要求: 1.本科以上学历,计算机科学、软件工程、网络工程、计算机网络技术电子科学等理工类专业,可实习至少3个月以上; 2.具有云计算平台技术运维实习工作经验,熟悉容器技术和K8S架构,熟悉云原生技术; 3.对Hadoop的大数据体系有了解,不限于Hadoop、Hive、HBase、Yarn、Spark、Flink、Kafka、ES等大数据项目,具备集群搭建、管理、配置优化经验者优先; 4.熟悉自动化运维及监控相关工具软件,熟悉ansible脚本等优先;操作系统、网络、数据库等基础扎实,能够从原理上分析和解决问题,熟悉至少一种脚本语言(Shell、Python),能够编写执行脚本; 5.熟悉实施文档、部署文档的编制工作; 6.具备良好的语言表达与文档编写能力,乐于为各类用户解决平台相关问题,并持续促进平台改进;
-
岗位职责: 1、参与公司产品技术开发; 2、在资深技术人员指导下有机会学习系统架构设计,并可在开发团队中承担部分模块代码开发,文档编写职责。 任职要求: 1、211、985院校毕业,软件开发及计算机相关专业,本科(需提供**成绩)以上学历; 2、有在校或实习Java开发经验,具备一定的编程基础,了解高性能的设计、编码及性能调优; 3、对各种开源的框架,如Spark、storm、rabbitmq、dubbo、zookeeper、hadoop、elk等有一定的学习和了解者优先; 4、了解Oracle/Mysql、mongodb、hbase、redis等数据库,了解数据库性能优化相关技术和原理者优先; 5、有强烈的进取心和责任感,有团队合作精神,乐于学习,专注成长。
-
岗位职责: 1、负责智能运维产品的运维,包括系统监控、自动化运维、CMDB、性能优化等工作; 2、负责日常故障处理,优化运维流程和规范,完善运维知识库的建设; 3、负责开发相关运维工具,提高运维效率; 4、善于思考,能够独立完成运维相关的技术问题; 5、较强的逻辑思维,学习能力和解决问题的能力,可承担一定的工作压力。 任职要求: 1、大专及以上学历,3年以上linux系统生产环境维护经验,有红帽RHCA认证优先; 2、精通至少一门脚本语言shell、python、power shell; 3、熟悉linux、windows操作系统,掌握常用开源软件如Nginx、Redis、 mysql; mongodb、MQ、Hadoop、CDH相关组件以及Zabbix、ELK等系统的配置、管理和优化,有zabbix认证优先; 4、熟悉git, jenkins, nacos等自动化运维配置管理工具,有CMDB、部署发布、监控等运维工具平台开发经验者优先; 5、喜欢深入钻研技术,能高标准输出技术产物; 6、有责任感,工作积极进取,乐于持续主动学习,抗压性强,具备良好的服务意识和团队合作精神; 7、有运维项目管理经验者优先,如PMP、ITIL、软考高项认证优先。
-
【哔哩哔哩人工智能算法实习生】(内容安全) 工作职责: 1、 参与公司内容安全相关的AI算法设计与研发并进行业务工程落地,包括但不限于风险分析、文本/图像安全风险识别、多模态内容理解等 2、 参与相关学术研究并应用前沿技术 职位要求: 1、有nlp/cv/多模态领域的理论背景和实践经验;熟悉机器学习算法,或有数据挖掘、样本清洗等经验 2、熟练使用sql和python。熟悉pytorch或者tensorflow、熟悉linux基本操作和git 3、有大数据工具(hadoop/hive/spark)的使用经验以及后端服务开发经验者优先 4、具备比较强的论文复现能力,以及比较好的论文阅读习惯 5、 加分项:a. 在nlp/cv领域的国际**会议/期刊上一作发表论文、或相关国际比赛获奖;b. 对语言和新兴文化充满兴趣。B站深度用户优先
-
岗位职责 1.制定和维护数据治理框架,包括数据质量、数据安全和数据合规性。 2.与业务部门合作,确保数据治理政策与业务需求相符合。 3.监控数据治理政策的执行情况,定期进行审计和评估。 4.管理数据分类和数据生命周期。 5.协调数据治理相关的项目和倡议。 6.为数据治理相关的技术和工具提供支持和指导。 7.确保数据治理流程符合相关法律法规和行业标准。 任职要求 1.计算机类相关专业本科以上学历(优秀者学历与专业适当放宽)。 2.强大的分析和解决问题的能力。 3.优秀的沟通和人际交往能力。 4.熟悉SQL、数据仓库和ETL工具。 5.熟悉Hadoop、Spark和Flink等分布式框架使用与运维。 6.熟悉java、python、C等其中至少一种开发语言。 7.有使用数据治理工具,ETL工具(如kettle)的经验者优先。
热门职位