• 20k-25k 经验5-10年 / 本科
    数据服务 / 不需要融资 / 50-150人
    岗位职责: 1、数据收集与预处理:数据收集:负责从各种数据源(如数据库、文件系统、网络等)中收集数据,确保数据的全面性和多样性。数据预处理:对数据进行清洗、整理、转换和归约等操作,以提高数据的质量和可用性。这包括处理缺失值、异常值、重复值等问题,以及将数据转换为适合挖掘的格式。 2、数据挖掘与分析:数据挖掘:运用统计学、机器学习和数据挖掘技术,对预处理后的数据进行深入分析和挖掘,以发现模式和趋势。这包括分类、聚类、关联规则挖掘、回归分析、时间序列分析等多种方法。数据分析:通过数据挖掘技术发现数据中的隐藏模式、关联规则和趋势,提取有用的信息和知识。这些分析结果可以用于业务预测、市场趋势分析、用户行为研究等多个方面。 3、模型构建与优化:模型构建:根据业务需求和数据特点,选择合适的机器学习算法或深度学习模型,构建数据分析模型。这些模型可以用于分类、预测、推荐等多个场景。模型优化:对构建的模型进行评估和优化,提高模型的准确性和性能。这包括调整模型参数、选择更合适的算法、优化特征工程等方面。 4、数据可视化与报告:数据可视化:利用数据可视化工具(如Tableau、Power BI等)将挖掘和分析的结果以直观、易懂的方式呈现出来。这有助于用户更好地理解数据和分析结果,发现数据中的规律和趋势。报告撰写:撰写数据挖掘和分析报告,向决策者和相关人员解释和说明分析结果,并提出相应的建议和决策支持。这些报告可以包括数据摘要、分析结果、模型性能评估等多个部分。 任职要求: 1、教育程度:计算机、数学、统计学相关专业;本科及以上学历。 2、工作经验:具备5年及以上专业工作经验。 3、知识:熟悉常用数据统计、分析和建模方法;熟练掌握各类算法包括分类算法、聚类算法、关联规则挖掘、异常监测等;熟练使用Python、Sql等语言; 熟悉大数据技术栈和工具,如Hadoop、Flink、Kafka等。 4、技能:熟悉数据作业流程,包括指标体系定义、数据清洗ETL、数据分析挖掘、数据可视化与展示;熟悉各种类型的统计方法,比如概率分布、相关性、回归、随机过程等;能够使用机器学习算法建立数学模型;熟悉常用大数据计算引擎flink;熟悉TensorFlow、PyTorch等深度学习框架。 5、核心能力素质:分析判断能力、解决问题能力、执行能力、沟通能力、文字能力、抗压能力、业务知识、工作主动性、责任意识、团队协作、严谨细致、服务意识、敬业精神、正直诚信。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音生活服务服务商平台核心数据系统服务端研发工作; 2、负责持续改善服务质量,提高系统稳定性和高可用性,减少线上反馈; 3、深入与产品形成协同,将技术应用到业务场景,达成产品业务目标; 4、对所负责的模块范围,有自己的技术规划。 职位要求: 1、本科及以上学历,计算机、通讯等相关专业,3年及以上大数据研发工作经验; 2、扎实的计算机知识,有较强的逻辑能力和学习能力,深入了解Go、Python、Java等至少一门语言; 3、熟悉分布式系统设计、大数据处理设计、微服务系统设计、稳定性治理、常用中间件原理以及实践等优先; 4、热爱编程,责任心强,有较强的学习能力,有强烈的求知欲,具有良好的团队沟通与协作能力; 5、有电商、O2O经验优先;有酒旅、外卖等行业经验的优先。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与设计和实现国际化数据的全链路及全生命周期的管控系统搭建,包括但不限于网关、策略引擎、数据标注、元数据管理、权限模型、数据溯源/血缘、数据扫描、数据迁移、数据脱敏等组件的设计与开发; 2、建立集团内部系统数据的统一存储管理体系,统一解决数据存储、数据主权、数据驻留等问题; 3、统一解决合规治理问题,自动识别数据特征,执行对应的政策策略(如拦截、脱敏、假名化等),统一解决各种合规政策带来的系统、数据迁移改造; 4、打破请求链路、业务系统和存储组件壁垒,更高效率的提取决策所需要的各种数据。 职位要求: 1、3年以上工作经验,有复杂系统的构建、运维经验,计算机基础技术扎实,熟练掌握至少一门后端开发语言; 2、熟练掌握至少一个后端开发存储组件:对象存储(S3 接口)、RDS、缓存(Redis)、消息队列、NoSQL 数据库; 3、对技术有浓厚的好奇心,喜欢学习新技术,喜欢钻研和解决未知问题; 4、有良好的团队合作能力,能与其他团队成员紧密合作,解决问题并推动项目进展。 深入参与过以下任意一项的优先: 1、有数据建模方向设计、开发经验; 2、基础架构、中台服务研发; 3、平台级容灾系统的设计、开发工作。
  • 13k-18k 经验1-3年 / 大专
    工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    职位描述 1. 基于蚂蚁国际业务场景,分析评估数据安全的风险现状,设计并推动数据安全保障方案落地 2. 制定运营指标,建设运营平台、流程和策略,降低数据泄露风险,负责数据安全事件响应处置 3. 负责各个业务域的数据风险识别、数据安全风险评估工作 职位要求 1. 计算机、信息安全类相关专业,3年以上信息安全工作经验 2. 熟悉主流的数据安全技术解决方案,包括但不限于权限管理平台、数据加密、数据防泄漏、数据脱敏、API安全、数据资产安全管理等; 3. 熟悉云安全,有云安全经验,阿里云为主 4. 大型企业数据安全管理落地实践工作经验优先 5. 有良好组织协调及跨部门沟通能力,英语可作为日常办公交流语言 加分项:拥有CISSP/CISA资质
  • 15k-30k 经验1-3年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    职位描述 负责从数据角度解决自动驾驶的相关问题,具体包括: 1. 搭建自动驾驶的全自动数据生产流程,高效支持各模块的数据挖掘、自动标注、算法评测、数据/真值可视化等任务 2. 进行数据挖掘/分析的策略研发工作,结合模型能力降低策略的开发成本和提升挖掘准召率 3. 利用多模态大模型的能力进行case自动分拣,提升路测和量产case的问题流转效率 职位要求 1. ***本科以上学历,有处理真实大规模数据经验。 2. 掌握python/C++编程语言,具备扎实的代码能力。 3. 参与过数据平台开发,有数据可视化/算法评测工具开发的相关经验。 4. 参与过自动驾驶线上算法模块开发,对数据驱动的算法开发有深刻认知。 以上职位要求满足其中一条即可
  • 35k-70k 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1、参与页面分析挖掘算法的研究与实现,通过算法策略优化页面分类模型、文本分类模型。 2、利用文本挖掘、图像理解等业界先进技术,对多模态内容进行挖掘与理解。 3、工作范围涵盖网页筛选与理解、网页与站点分类和去重、多类型非网页类多模态数据的处理和理解。 岗位基本要求: 1、计算机相关专业本科及以上相关学历,具备优秀的理解力、沟通能力和团队协作能力。 2、熟练掌握 c++/python/Java等编程语言,并且在机器学习,自然语言处理领域有扎实的理论功底和动手能力。具备优秀的逻辑思维能力和数据科学能力,在相关领域比赛中获奖优先。 3、在信息检索、自然语言处理/图像与视频理解等方面有非常扎实的理论功底,以及丰富的解决实际问题的项目经验。有信息检索相关领域工作经验优先。 4、善于学习领域前沿技术并能快速应用到实际工作当中,在自然语言处理,信息检索、计算机视觉等领域有相关学术论著优先。
  • 20k-40k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
  • 11k-13k 经验5-10年 / 本科
    工具,企业服务 / 未融资 / 150-500人
    1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    岗位职责: 1. 参与完成数据安全产品的需求分析,负责核心业务功能模块设计、开发与单元测试,保障技术架构的合理性。 2. 能够按时、高质量完成相关模块的需求撰写、编码以及测试工作,独立解决开发中遇到的问题。 3. 跟踪和应用数据安全领域的最新技术和趋势,推动产品的持续创新和改进。 4. 协调与其他团队(业务部门、运维等)的合作,确保产品如期顺利上线。 职位要求: 1.扎实的Java和数据库基础,精通面向对象分析和设计技术,包括设计模式、UML建模等; 2.熟悉底层中间件、分布式技术(包括RCP框架、缓存、消息系统等); 3.对Spring、MyBatis等常用开源框架应用经验丰富,对框架本身的体系有较为深厚的理解和应用经验,对框架本身有过开发、重构者或者参与过开源框架优先考虑; 4.对技术有强烈的兴趣,喜欢钻研,具有良好的学习能力,沟通技能,团队合作能力; 5. 具有数据安全领域相关知识,了解数据加解密、数据脱敏、数据分类分级等数据安全相关技术。 6.具备良好的沟通和协作技能、拿结果能力,能够有效的推进工作落地;
  • 25k-40k·15薪 经验3-5年 / 本科
    消费生活 / 上市公司 / 2000人以上
    岗位职责: 1. 负责到店平台数据领域的质量建设工作,包括但不限于数据生产加工及数据平台、数据产品的质量保障方案制定及落地。 2. 通过建设数据可测性、全链路追踪、数据监控体系等能力,保障数据质量。 3. 参与数据应用的效果评估体系建设,如:算法策略的效果评估等,对数据应用的最终业务效果和质量负责。 4. 参与建设到店平台数据领域的研发交付体系,从测试环境、可测试性、测试工具等方面,提供稳定高效的测试能力和测试基建。 岗位基本要求: 1. 计算机或相关专业本科以上学历,计算机技术基础扎实,编程能力过关。 2. 两年以上的大数据测试经验,熟悉数据算法研发测试流程。 3. 熟悉Hadoop/Hive/Spark/Flink等大数据生态相关技术,在数据仓库、数据平台、数据挖掘领域有一定知识积累。 4. 具备较强的逻辑思维与表达能力,善于沟通协作,学习能力强,具有良好的团队合作精神。
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 20k-40k 经验不限 / 不限
    旅游|出行 / D轮及以上 / 500-2000人
    主要职责: 支持市场部的Campaign和数字营销策略,提供关于平台内部流量转化的详尽分析。 理解数据埋点和上报机制,有效处理A/B测试数据。 建立和维护基础事实表和维度表,为上游分析提供稳定的数据模型基础。 与研发和产品团队进行日常沟通,确保数据需求的准确性和实时性。 熟练使用SQL和Python进行数据分析和模型开发。 使用ETL工具优化数据处理流程和数据质量。 任职资格: 熟悉数仓建模方法,具备支持市场部Campaign、数字营销及平台内部转化率分析的相关经验。 了解数据埋点、上报及A/B测试数据处理。 能够独立建立和优化基础事实表和维度表。 精通SQL和Python,有使用ETL工具的经验。 良好的沟通技巧和团队合作能力,能够与技术团队和业务团队有效合作。 强大的分析能力,能够从数据中提取有价值的业务洞察。
  • 10k-15k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、负责生产数据库(MySQL/Redis/MongoDB/TiDB等)的日常运维,稳定性保障,性能优化; 2、及时定位和排除数据库故障,并对数据库进行持续性能优化,并发现潜在风险; 3、负责数据库常见运维工具的开发及设计; 4、根据业务需求选型数据库存储方案,优化性能,实施集群迁移及扩容; 5、优化现有数据架构,推动及解决现有架构遗留问题; 职位描述 1、具有丰富的数据库领域知识,长期从事数据库领域工作; 2、三年以上MySQL、MongoDB、Redis等数据库运维经验; 3、熟练掌握Linux基本管理,熟练掌握至少二种脚本开发语言(Python、Shell、go、Vue等); 4、精通MySQL数据库配置、备份、优化、监控等; 5、精通MySQL主从复制、高可用方案、负载均衡等; 6、有MySQL高负载高并发系统的运维经验; 7、熟悉MongoDB及Redis,熟悉原理及集群优化方案; 8、有良好的故障排除能力和分析能力,保障业务快速恢复; 9、熟悉数据库容量规划和分库、分表设计方法,有数据库模型设计和支持经验; 10、有金融经验者优先;
  • 10k-18k 经验3-5年 / 本科
    金融 / 不需要融资 / 2000人以上
    【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型