-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,参与稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,支持提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.熟悉spark/hive组件原理和应用,精通spark内核相关知识和技术,有较大规模RSS生产实施经验。 3.了解大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有AWS/GCP/阿里云等云平台使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
职位描述 1、负责shein的全集团数据服务,为公司运营决策、产品方向、增长策略提供大数据平台服务的支持; 2、根据业务的需求设计落地新的分析类型数据产品及数据开发类型产品; 3、推动数据化运营,与相关团队协作组织数据技术、产品和数据资产的相关的推广、培训; 职位要求 1、具有深厚的统计学、计算机相关知识,精通SQL等数据查询语言,或者对数据开发分析有相关背景; 2、能够系统思考、自我驱动,对数据可视化、数据应用或者数据研发、交互设计有深刻的理解; 3、有过完整数据类产品的规划、设计、开发并落地实现成功案例; 4、有数据化运营经验、懂得产品推广、数据驱动用户增长的尤佳。
-
工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
-
【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
-
岗位职责: 1. 大数据组件开发。 2. 基于Python 体系下的数据质量引擎开发; 3. 基于Java及Linkis开源框架的质量引擎开发; 4. 大数据资产应用的开发、部署、调优; 5. 数据稽核引擎开发,数据共享交换能力对接。 任职要求: 1. 本科及以上学历,计算机相关专业; 2. 3年以上互联网或软件行业工作经验,熟悉Linux环境;熟悉Linux和Python开发; 3. 熟悉Spring,Spring boot,Spring Cloud等框架、熟悉Eclipse或IntelliJ IDEA开发工具等使用 以下满足其一即可: 4. 熟悉Hadoop,MapReduce,Hbase,Flink等大数据部署、运维、开发; 5. 熟悉数据治理理论概念、架构,有元数据、数据质量、数据标准、主数据等相关数据治理经验; 6. 有分布式相关项目(分布式存储/分布式计算/高性能并行计算/分布式cache)经验; 7. 对数据库的架构、扩展特点非常熟悉,能熟练进行SQL优化、集群部署、数据同步等。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
工作职责 1.负责自动驾驶数据平台、仿真平台、标注平台、训练平台及相关工具链的架构设计和研发工作,打造符合前瞻、量产智驾技术研发需要的数据闭环 2.负责大规模、可伸缩计算集群系统的解决方案的设计和搭建,以及核心技术的研究、开发和优化,负责平台长期运维支持和架构优化 3.负责自动驾驶软件系统框架架构设计和开发,与硬件、算法和测试团队合作,持续集成并优化自动驾驶系统 4.负责量产车型的数据驱动影子模式、数据记录等车端功能设计、系统架构和开发 工作要求 1.学历要求:**本科及以上学历,英语CET-4及以上, 2.工作经验:具有6年及以上相关工作经验,特别优秀者可适当放宽 3.其他: ① 计算机科学与技术、软件工程专业、自动化控制专业、人工智能等相关专业优先 ② 满足以下条件之一: 1)熟悉软件开发流程、具备扎实的算法和数据结构、算法、操作系统、网络、数据库等知识 2)熟悉几何、计算机图形学、动态系统建模等理论和方法 3)精通C/C++/Go/Python/nodejs一种或多种编程语言,熟悉HTML/CSS/React/REST 4)熟悉Linux/RTOS环境下开发与调试,有嵌入式操作系统和实时操作系统的内核或驱动开发经验,有多进程多线程、中间件、计算机视觉应用(OpenCV)、CUDA、TensorRT等开发经验优先 5)有丰富的Gin/Pylons/Django Web框架开发经验 6)熟悉PyTorch,TensorFlow,TensorRT等深度学习框架,有模型训练、调优相关经验 7)熟悉Spark/K8S相关技术,有相关开发经验,有过海量数据系统开发经验优先,有过集群系统开发、部署和优化经验优先 8)熟悉软件开发流程以及DevOps完整流程,熟悉DevOps相关系统原理,有相关工具和使用经验、如Jenkins,Argo, K8S,Docker,Kubernetes等 ③ 工作认真负责,具有良好的团队合作能力、沟通协调能力和学习能力 ④ 有Tier 1或主机厂相关工作经验优先
-
需要有数据治理经验(元数据,参考数据和主数据,数据质量,数据标准,数据架构,数据建模等)
-
(一)数据采集与整合 1. 设计和开发数据采集系统,从多种数据源(如网页、数据库、文件系统、传感器等)获取数据,确保数据的准确性、完整性和及时性,以满足大模型的训练和优化需求。 2. 针对不同结构(结构化、半结构化和非结构化)的数据制定相应的采集策略,能够处理海量数据的采集任务。 3. 负责将采集到的各类数据进行整合,建立统一的数据存储和管理体系,消除数据孤岛现象,保障数据的一致性。 (二)数据预处理与清洗 1. 对采集到的原始数据进行预处理,包括但不限于数据格式转换、编码处理、数据归一化等操作,以便于后续的数据处理和模型训练。 2. 开发数据清洗程序,识别和处理数据中的噪声、缺失值、异常值等问题,提高数据质量,为大模型提供高质量的输入数据。 3. 建立数据质量监控机制,持续跟踪数据质量指标,及时发现并解决数据质量下降的问题。 (三)数据标注与管理 1. 对于需要人工标注的数据,设计数据标注方案并组织标注工作,确保标注的准确性和一致性。 2. 建立数据标注平台或工具,提高标注效率,同时方便对标注数据进行管理、审核和版本控制。 3. 管理标注数据的存储和分发,与大模型开发团队紧密合作,确保标注数据能够及时、准确地用于模型训练和评估。 (四)数据存储与优化 1. 设计和优化大模型的数据存储架构,根据数据的特点(如数据量、访问频率、数据类型等)选择合适的存储技术(如关系型数据库、非关系型数据库、分布式文件系统等)。 2. 负责数据存储系统的性能优化,包括数据库索引优化、存储容量规划、数据读写性能提升等方面,以满足大模型对数据快速访问的需求。 3. 确保数据存储的安全性和可靠性,制定数据备份、恢复和灾难应对策略,防止数据丢失或损坏。 (五)数据管道构建与维护 1. 构建高效的数据管道(Data Pipeline),实现数据从采集到存储、预处理、标注再到模型训练的自动化流程,提高数据流转效率。 2. 监控数据管道的运行状态,及时处理管道中的故障和堵塞问题,确保数据的稳定流动。 3. 对数据管道进行持续优化,根据业务需求和数据规模的变化,调整管道的架构和参数,提高数据处理的效率和可扩展性。 (六)与团队协作 1. 与大模型算法开发团队、前端开发团队、测试团队等密切合作,理解各方对数据的需求,提供数据支持并协同解决项目中的数据相关问题。 2. 参与数据工程团队内部的技术交流和分享活动,促进团队整体技术水平的提升
-
岗位职责】 1、基于对业务的深刻理解,搭建数据分析体系; 2、进行业务调研、快速形成数据业务模型; 3、搭建业务经营监控与异常分析体系,进行日常监控和专项分析,定位问题和原因; 4、根据数据分析结果,与业务沟通确定针对性策略,提供有效的风险评估 3、基于业务的需求掌控,梳理并转化需求,推动底层数据建设 4、对常规分析框架转化需求,不断优化和完善数据体系诊断并不断关键优化建议; 【任职资格】 1、本科及以上学历,数学、统计学、计算机相关专业优先,3年左右相关工作经验; 2、精通SQL、EXCEL,熟练使用1-2种主流BI工具; 3、能够搭建数据模型,具有优秀的数据敏感度,丰富的分析建模和数据建设经验; 4、良好的沟通能力和逻辑思维能力,能够独立解决项目过程中遇到的问题,具备较强的学习能力和文档撰写能力; 5、团队协作,热爱技术,追求卓越,结果导向,自我驱动。
-
岗位职责: 1、推动公司数据平台在业务场景上的应用价值,完成数据产品的规划,以及产品架构、数据设计、流程图、产品原型的设计 2、深入理解业务,与业务方共同建立数据指标体系,规范指标的统一命名和口径 3、规划整体的数据工具&产品体系,完成需求的收集、沟通、规划、项目推进、效果验收、线上故障跟进、用户反馈与产品运营等全过程 4、分析各类数据工具的适用性,结合业务部门的数据需求,部署和运营数据工具,收集反馈建议,及时调整产品策略,及时开展功能升级 任职要求: 1、五年以上数据产品设计经验,能够独产承担产品规划工作,产品包含但不限于 BI,数据仓库,数据可视化,数据化运营 2、参与过大型项目或者系统建设的经验,有流量分析系统或经营决策系统建设性优先 3、沟通表达能力佳,逻辑思维清晰,能够准确定位和剖析真实的业务需求 4、有产品追求,对于产出有明确的自我要求,并能够积极主动付诸实践推动产品自我迭代升级 5、具有一定的SQL编写能力
-
1、工作地点:南京润和总部 A栋 2、工作时间 :正常上班时间早上9:00-下午6:00,周二周四加班到晚上8:30, 3、加班费:加班无餐补和加班费;周末加班可以按照1:1调休或者折算加班费,具体情况由项目组决定。 4、工作内容:华为智能驾驶数据标注项目(问界M5、M7、M9都涉及) 1、涉及到对2D/3D图像、视频、激光雷达、GPS和地图等各类数据的标注和处理。这些数据标注的主要目的是训练自动驾驶模型,使其能够准确识别道路、交通标志、车辆、行人等,从而实现安全、高效的自动驾驶。 2、操作:拉框、描边、选择属性等。 3、使用华为自研的标注平台和工具,可以学习到华为的项目管理流程和方式方法,提升自己的能力和经验。 4、入职时间:统一安排在3.29日,不能提前安排入职。
-
欢迎22届、23届有能力、有想法的小伙伴加入我们~ 需要立刻到岗,符合要求的朋友快来投递简历~ 工作职责: 管理者培养项目,多岗位多业务深耕体验。12个月的培养周期,数据培养方向,主要包括: 1、从事全球金融、经济相关数据的深度采集和挖掘工作,对数据进行采集、清洗和录入,为国内外客户提供专业金融数据; 2、 熟悉并了解业务线产品定位,客户需求,通过专题分析,对业务问题进行深入分析,为产品方向、产品运营、客户定制服务提供数据支持; 3、整合多种来源和不同格式的数据,甄别数据的真伪和质量,分析数据间的联系,挖掘数据背后潜在的价值; 4、沉淀分析思路与框架,提炼数据产品需求,规划数据内容,负责跟进并推动数据内容的落地,体现价值; 5、用户调研,竞品分析,参与数据产品规划,挖掘业务线客户需求; 6、参与设计数据加工工艺和流程改进,优化数据采集工具,确保数据的及时性及准确度; 7、参与重点数据项目的立项、规划、落地及产品上线; 8、拓展数据源,并储备数据规划及数据分析的能力。 任职要求: 1、985/211本科及以上学历,海外院校QS200,金融/统计学/经济学/数学/数据科学/信息管理等相关专业优先; 2、英语听说读写熟练,可作为工作语言(需CET6及以上,IELTS 6.5或TOEFL等相关语言成绩证明); 3、熟练使用python、sql优先 ;熟练使用Wind金融终端者优先; 4、有0-1进行数据整合排查和分析的能力 ;数据治理/数据规划经验者优先; 5、擅长逻辑分析,可通过书面语言准确表达; 6、熟悉金融行业业务知识,对金融/商业数据分析领域有强烈探知欲望和兴趣; 7、外向型性格,积极主动,有很强的求知欲和学习能力; 8、聪明,勤奋好学;沟通表达能力和组织能力优秀,有较强的团队合作精神; 9、抗压力良好,能接受挑战,不轻言放弃。 工作时间: 8:30-17:30,周末双休。 薪资福利: 1、基础薪资、管培津贴、年终奖金 2、五险一金、补充医疗保险、定期体检、餐饮补贴、带薪年假、生日假、家长假、节日福利、专业培训、定期体检
-
岗位职责: 1. 负责对原始数据进行标注处理,包括文本分类、图片识别、语音识别等任务; 2. 按照项目要求,完成数据标注任务,保证标注质量和进度; 3. 定期汇报标注进度及问题,与项目组成员保持良好沟通; 4. 协助完成数据标注相关的其他工作。 任职要求: 1. 本科及以上学历,计算机、数学、统计等相关专业优先; 2. 熟悉文本分类、图片识别、语音识别等基本概念和方法; 3. 具备良好的数据敏感度和分析能力,能从大量数据中发现和总结规律; 4. 具备良好的沟通能力和团队协作精神,工作细心、责任心强; 5. 能保证每周至少实习 3 天,实习周期至少 3 个月。 福利待遇: 1. 提供实习补贴,****; 2. 提供完善的实习培训和指导; 3. 提供舒适的办公环境和良好的团队氛围; 4. 提供实习证明,表现优异者可获得转正机会。
-
基本情况: 28-35岁,**本科以上学历,计算机、软件、统计学等相关专业。 工作职责: 1.根据网络数据,分析、解读流量行为,针对数据传输异常情况进行分析判断,进行预警; 2.通过对内外部各种数据的数据分析、加工、关联,对违规数据流动进行预警。 工作经验: 3年以上数据分析工作经验,有网络安全数据分析相关工作经验至少1年以上。 专业技能: 掌握基础的数据分析挖掘能力; 有丰富的情报分析、溯源分析及自己的独特分析、溯源方法论优先;有通过挖掘各种内外部数据发现黑灰产风险、解决风险经验优先。 工作能力: 思路清晰,善于主动思考,有创新、能独立分析和解决问题,具有良好的沟通能力和团队合作精神;较强的数据敏感度,逻辑分析能力和文档写作能力;文字功底强,能够独立撰写分析报告;有责任心,良好的沟通能力和组织管理能力以及心理承受能力,勇于接受挑战。 素质模型: 严谨细致、逻辑清晰、原则性强、合作意识强、真诚友善、抗压能力强、意志坚韧。