-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
职位职责: ByteIntern:面向2025届毕业生(2024年9月-2025年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、参与集团信息系统部离线和实时数据仓库建设工作; 2、面向PB级超大规模数据问题,接近百亿条级别的业务数据,对其存储、计算、分析; 3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,可视化的全流程; 4、构建设计良好的数据流、数据仓库、数据服务、分析系统、流程规范,数据工具/产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。 职位要求: 1、2025届本科及以上学历在读,计算机等相关专业优先; 2、熟悉数据仓库实施方法论、了解数据仓库体系; 3、会使用SQL,掌握Java、Python、R、Scala、C/C++ 中任意一门编程语言; 4、有大数据集、分布式计算工具(Map/Reduce,Hadoop,Hive等)工作经验优先; 5、思路清晰,善于思考,有很强的数据分析能力,能独立分析问题并推动解决问题。
-
职位职责: 日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:字节跳动Data研发部门,负责公司产品线的推荐、广告、系统架构、大数据和开放平台等技术。 1、负责数据平台后台研发工作; 2、支撑业务快速迭代,保证在线服务质量; 3、负责在线系统稳定性优化,性能调优等工作; 4、海量数据,分布式系统,系统在实时性和稳定性方面有很高要求。 职位要求: 1、本科及以上学历在读,计算机、软件工程等相关专业优先; 2、良好的编程能力,扎实的数据结构和算法基础,热爱写代码和研究相关底层原理; 3、有大数据集、分布式计算工具(Hadoop,Spark,Hive,Storm)等应用开发经验者优先; 4、实习时间满足3个月及每周4天以上,能够长期实习优先。
-
岗位职责: 1、参与公司产品技术开发; 2、在资深技术人员指导下有机会学习系统架构设计,并可在开发团队中承担部分模块代码开发,文档编写职责。 任职要求: 1、211、985院校毕业,软件开发及计算机相关专业,本科(需提供**成绩)以上学历; 2、有在校或实习Java开发经验,具备一定的编程基础,了解高性能的设计、编码及性能调优; 3、对各种开源的框架,如Spark、storm、rabbitmq、dubbo、zookeeper、hadoop、elk等有一定的学习和了解者优先; 4、了解Oracle/Mysql、mongodb、hbase、redis等数据库,了解数据库性能优化相关技术和原理者优先; 5、有强烈的进取心和责任感,有团队合作精神,乐于学习,专注成长。
-
数据分析、大数据、人工智能、区块链培训讲师 工作地点:成都/全国 工作性质:全职/兼职 薪资:面谈 要求: 1. 熟悉数理统计、商业智能、数据分析、数据挖掘、可视化、大数据等理论内容之一。 2. 熟练运用SPSS、SAS、R、EXCEL、Python等软件之一。 3. 有一定的项目实战经验 4. 熟悉hadoop生态,具备数据挖掘项目能力, 5.对任何数据领域有一定特长皆可考虑 各层次培训需求都会有,有共同创业精神考虑的朋友可以提出交流。 欢迎有志于CDA数据科学事业的朋友加入。
-
岗位职责: 1.参与工业互联网平台的对外运营工作,包括平台部署、技术工单处理、漏洞修复; 2.参与相关项目实施保障,配合项目组完成平台运营维护相关任务; 3.编制运营相关文档、手册,制作平台运营能力所需的内外部文档材料; 4.参与运营管理标准与规范,并配合上级推进执行。 任职要求: 1.本科以上学历,计算机科学、软件工程、网络工程、计算机网络技术电子科学等理工类专业,可实习至少3个月以上; 2.具有云计算平台技术运维实习工作经验,熟悉容器技术和K8S架构,熟悉云原生技术; 3.对Hadoop的大数据体系有了解,不限于Hadoop、Hive、HBase、Yarn、Spark、Flink、Kafka、ES等大数据项目,具备集群搭建、管理、配置优化经验者优先; 4.熟悉自动化运维及监控相关工具软件,熟悉ansible脚本等优先;操作系统、网络、数据库等基础扎实,能够从原理上分析和解决问题,熟悉至少一种脚本语言(Shell、Python),能够编写执行脚本; 5.熟悉实施文档、部署文档的编制工作; 6.具备良好的语言表达与文档编写能力,乐于为各类用户解决平台相关问题,并持续促进平台改进;
-
岗位职责: 1.参与工业互联网平台的对外运营工作,包括平台部署、技术工单处理、漏洞修复; 2.参与相关项目实施保障,配合项目组完成平台运营维护相关任务; 3.编制运营相关文档、手册,制作平台运营能力所需的内外部文档材料; 4.参与运营管理标准与规范,并配合上级推进执行。 任职要求: 1.本科以上学历,计算机科学、软件工程、网络工程、计算机网络技术电子科学等理工类专业。 2.具有云计算平台技术运维工作经验,熟悉容器技术底层原理和K8S架构,熟悉云原生技术; 3.对Hadoop的大数据体系有深入认识,不限于Hadoop、Hive、HBase、Yarn、Spark、Flink、Kafka、ES等大数据项目,具备集群搭建、管理、配置优化经验者优先; 4.熟悉自动化运维及监控相关工具软件,熟悉ansible脚本等优先;操作系统、网络、数据库等基础扎实,能够从原理上分析和解决问题,熟悉至少一种脚本语言(Shell、Python),能够编写执行脚本; 5.熟悉实施文档、部署文档的编制工作; 6.具备良好的语言表达与文档编写能力,乐于为各类用户解决平台相关问题,并持续促进平台改进;
-
岗位职责 1.制定和维护数据治理框架,包括数据质量、数据安全和数据合规性。 2.与业务部门合作,确保数据治理政策与业务需求相符合。 3.监控数据治理政策的执行情况,定期进行审计和评估。 4.管理数据分类和数据生命周期。 5.协调数据治理相关的项目和倡议。 6.为数据治理相关的技术和工具提供支持和指导。 7.确保数据治理流程符合相关法律法规和行业标准。 任职要求 1.计算机类相关专业本科以上学历(优秀者学历与专业适当放宽)。 2.强大的分析和解决问题的能力。 3.优秀的沟通和人际交往能力。 4.熟悉SQL、数据仓库和ETL工具。 5.熟悉Hadoop、Spark和Flink等分布式框架使用与运维。 6.熟悉java、python、C等其中至少一种开发语言。 7.有使用数据治理工具,ETL工具(如kettle)的经验者优先。
-
岗位职责: 1. 负责大数据项目的开发、维护和优化,包括数据采集、存储、处理、分析和可视化等环节; 2. 深入研究大数据技术,包括但不限于Hadoop、Hive、HBase、Spark、Flink等; 3. 参与大数据平台的设计和搭建,协助解决项目中的技术难题; 4. 编写技术文档,包括项目开发文档、技术白皮书等; 5. 完成上级领导交付的其他相关工作。 任职要求: 1. 本科及以上学历,计算机相关专业,可接受应届毕业生; 2. 熟悉Java、Python等编程语言,具备良好的编程基础; 3. 对大数据技术感兴趣,有强烈的学习意愿和能力; 4. 具备良好的逻辑思维能力、沟通能力和团队协作精神; 5. 薪资范围:5-6k,根据个人能力可面议。 公司福利: 1. 享有国家法定节假日、年假、婚假等带薪假期; 2. 入职即购买五险一金,提供年终奖、项目奖金等; 3. 提供完善的培训体系和职业发展通道; 4. 舒适的办公环境,团队氛围融洽; 5. 定期举办员工活动,提供丰富的员工生活。 工作地点:深圳市南山区 欢迎有志之士加入我们的团队,共同发展!
-
2025届校招-Data Engineer(Java/Python)
[上海·浦东新区] 2024-09-0214k-26k·15薪 经验在校/应届 / 本科金融 / 上市公司 / 2000人以上岗位职责: 1、参与大数据平台数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台; 2、参与数据仓库模型的ETL实施,ETL性能优化、技术攻关等; 3、参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设; 4、参与平台标签体系、数据产品与应用的数据研发,发掘数据价值,以数据驱动业务不断发展。 任职要求: 1、本科及以上学历,计算机、软件工程、统计学或相关专业出身,具备良好的问题解决能力; 2、掌握Java, Python等至少一门编程语言; 3、熟悉大数据生态技术栈,了解Hadoop,Hive,Spark,Flink中的一种或几种,有相关开发经验更佳; 4、熟悉数据仓库方法论或者有实战经验是加分项; 5、做事严谨有责任心,以及良好的沟通协调能力是加分项; 6、良好的英文文献阅读能力。 -
职位诱惑: 全球化工作环境,有竞争力的薪酬,快速成长 职位描述: 职位描述: 1. 我们聚焦5G主航道,构筑产品核心竞争力,构建下一代无线智能网管,构建无线网络的智能驾驶能力。 2. 产品向云化,智能化,自动化的全栈技术演进,软件能力需求旺盛,您所有的软件能力都被我们需要。 3. 产品架构开放,涉及技术广泛,适合应用软件开发爱好者大展拳脚。 4. 诚邀有能力,有想法,有理想的你,为全球5G商用与无线网络智能化运维提供智慧的大脑! 产品介绍:https://carrier.huawei.com/cn/products/wireless-network/mae 岗位职责 1、负责MAE-M云化软件中的重点模块、微服务、子系统的需求分析、设计及关键代码开发。 2、负责改进软件产品的性能、可扩展性、稳定性及安全性,负责关键技术的提前验证,消除版本落地的技术风险。 3、负责所属业务模块的可信及安全需求看护,包含设计/开发/优化等持续性优化工作。 任职要求: 1、熟悉Java、C++、Web、Python等主流开发语言中的一种。 2、具备高并发、微服务、分布式数据库、云计算、公有云、私有云和分布度调度等开发经验者优先考虑。 3、有Redis、Kafka、ZooKeeper、Hadoop、Spark经验者优先。
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。 工作地址
-
说明:公司的数据量PB级别,非常有挑战,机遇难得。 岗位职责: 1.负责大数据主流技术组件的基准测试以及与业务结合的性能测试。 2.负责主流实时、离线大数据架构体系研究及分享。 3.负责或参与大数据项目底层业务需求的分析、沟通、确认及实现。 4.负责或参与大数据项目底层的架构设计、设计评审、代码实现和评审。 5.参与项目上线后的性能监控、分析、调优等工作,保障系统的正常运行。 岗位要求: 1、计算机或相关专业,本科以上学历,1年或1年以上java开发经验。 2、熟悉JAVA编程,熟悉多线程开发、分布式开发,具备较扎实的编程基础和良好编程习惯。 3、熟悉Linux,熟悉Shell命令操作,执行安装部署程序及简单运维。 4、熟悉HaDoop生态,能熟练使用JAVA进行MapReduce、Spark等技术开发,熟悉分布式性能调优者优先考虑。 5、具备主人翁精神和团队精神,沟通协调表达较好,有上进心,能承受一定压力。 6、优秀java开发经验者或优秀的毕业生可考虑培养。
-
创新研发中心(北京)大数据开发(24届校招)(J13985)
[北京·太平桥] 2023-12-1310k-15k 经验在校/应届 / 本科金融 软件开发 / 不需要融资 / 2000人以上工作职责: 加入创新研发中心,你将会参与保险行业数字化创新变革的标志性核心项目建设,负责: 1.参与大数据平台研发设计,包括大数据采集、存储、分析及应用等领域; 2.参与需求分析、系统架构设计,并完成需求设计相应文档的编写; 3. 参与代码实现和性能优化,从用户角度推动业务发展。 任职资格: 携手同行,实现“数字中华”目标,我们希望你可以是: 1.即将毕业于**院校,取得*****本科及以上学历; 2.拥有计算机/应用数学/统计类相关专业背景,研究生尤佳; 3. 了解Hadoop/Spark生态圈产品的工作原理及应用场景,有一定Hadoop/Spark/kafka/flume/hbase/hive/ zookeeper等大数据生态圈知识和开发经验; 4. 熟悉Linux系统,了解shell编程,java/python基础扎实,了解jvm,熟悉常用软件的安装与调试; 5. 具备较强的数据分析、问题分析、逻辑思维能力,良好的沟通、协作能力,掌握svn、git等常用的团队协作工具。 -
岗位职责: 1.从事自然语言处理(NLP)技术的研发,提供文本数据分析的相关方案及服务; 2.负责基础自然语言处理、语义理解技术平台搭建; 3.负责词法分析、词性标注、中文分词、自动对话、语义挖掘和语言逻辑等相关研发工作。 职位要求: 1.自然语言处理/机器学习/数据挖掘研究方向,计算机/数学及相关专业,本科及以上学历; 2.熟练掌握自然语言处理领域的基础理论和方法,如词法分析,信息抽取,文本分类/聚类,主题模型、语义相似度计算,摘要及关键词提取,情感分析等NLP基础技术; 3.具备扎实的算法基础和机器学习的基本原理,对机器学习的一般模型如分类、聚类、关联分析、预测等模型熟悉(LR,CART,SVM,NN,Bayesian,PCA,LDA等); 4.理解一些常用的特征选择和矩阵分解的算法;熟悉CNN,RNN/LSTM等基本深度学习算法在NLP领域应用者优先; 5.具有较强编程能力,熟练使用python语言,有hadoop使用经验者优先; 6.有语义相似度计算、智能检索,智能问答系统、知识图谱构建相关经验的优先考虑; 7.熟悉Linux开发环境