-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
职位职责: 1、参与数据中台的汇聚和采集ETL详细设计和开发工作; 2、负责数据平台相关数据管理工作,如研发规范、质量规范、保障规范的制定与推动实施落地; 3、负责数据分析需求的模型开发和实现; 4、负责来自业务团队数据方面的研发需求。 职位要求: 1、5年以上大数据开发经验,精通SQL语言,具备存储过程开发能力,能熟练进行SQL查询优化; 2、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想,了解数据仓库、CDP者优先; 3、熟悉Hadoop、Spark、Flink、Sqoop、DataX、Hive、Flume、Kafka等相关技术; 4、熟练Scala、Python、Java中至少一种语言; 5、具有良好服务意识,抗压力和沟通能力强,有过ToB行业服务经验优先。
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
1、根据业务需求进行需求分析、完成 BTL 教据建模、模型开发等工作,与应用、测试良好的沟通完成需求迭代; 2、模型分析,与存汇款、大教据平台等核心系统保持教据同步完整性及教据准确性; 3、快速完成生产问题排查与解决。 4、熟练掌握 SQL 语法,具备 SqI 调优能力,良好的教据库技术背景,能基于大教据平台进行教据建模及数据开发等工作。 5、良好的 ETL 处理能力,熟悉 Hadoop 、 Hive 、 vertica 、Sparksq;任务调度、 Linux 、 Shell 等相关技术栈,优秀的开发实战、性能优化能力。 6、对教据敏感,能在日常工作中对大教据进行教据分析、教据核验、教据治理优先。 7、熟悉银行存汇款等核心系统的业务及教据库模型优先。有较好的文档写作能力; 8、有较强的机行力;有较好的团队意识、适应能力、具有良好的沟通协调能力;抗压能力较强;
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
Python数据开发工程师 玖奕私募基金,正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等 3、熟悉Linux环境下开发,熟悉常用的Bash指令 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库 5、熟悉MongoDB等NoSQL数据库 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度 7、自驱、认真负责、技术沟通和技术协作能力强 额外加分 1、有金融行业数据处理经验 2、有容器化(Docker)开发部署经验 3、有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda
-
岗位职责: 1、数据收集与预处理:数据收集:负责从各种数据源(如数据库、文件系统、网络等)中收集数据,确保数据的全面性和多样性。数据预处理:对数据进行清洗、整理、转换和归约等操作,以提高数据的质量和可用性。这包括处理缺失值、异常值、重复值等问题,以及将数据转换为适合挖掘的格式。 2、数据挖掘与分析:数据挖掘:运用统计学、机器学习和数据挖掘技术,对预处理后的数据进行深入分析和挖掘,以发现模式和趋势。这包括分类、聚类、关联规则挖掘、回归分析、时间序列分析等多种方法。数据分析:通过数据挖掘技术发现数据中的隐藏模式、关联规则和趋势,提取有用的信息和知识。这些分析结果可以用于业务预测、市场趋势分析、用户行为研究等多个方面。 3、模型构建与优化:模型构建:根据业务需求和数据特点,选择合适的机器学习算法或深度学习模型,构建数据分析模型。这些模型可以用于分类、预测、推荐等多个场景。模型优化:对构建的模型进行评估和优化,提高模型的准确性和性能。这包括调整模型参数、选择更合适的算法、优化特征工程等方面。 4、数据可视化与报告:数据可视化:利用数据可视化工具(如Tableau、Power BI等)将挖掘和分析的结果以直观、易懂的方式呈现出来。这有助于用户更好地理解数据和分析结果,发现数据中的规律和趋势。报告撰写:撰写数据挖掘和分析报告,向决策者和相关人员解释和说明分析结果,并提出相应的建议和决策支持。这些报告可以包括数据摘要、分析结果、模型性能评估等多个部分。 任职要求: 1、教育程度:计算机、数学、统计学相关专业;本科及以上学历。 2、工作经验:具备5年及以上专业工作经验。 3、知识:熟悉常用数据统计、分析和建模方法;熟练掌握各类算法包括分类算法、聚类算法、关联规则挖掘、异常监测等;熟练使用Python、Sql等语言; 熟悉大数据技术栈和工具,如Hadoop、Flink、Kafka等。 4、技能:熟悉数据作业流程,包括指标体系定义、数据清洗ETL、数据分析挖掘、数据可视化与展示;熟悉各种类型的统计方法,比如概率分布、相关性、回归、随机过程等;能够使用机器学习算法建立数学模型;熟悉常用大数据计算引擎flink;熟悉TensorFlow、PyTorch等深度学习框架。 5、核心能力素质:分析判断能力、解决问题能力、执行能力、沟通能力、文字能力、抗压能力、业务知识、工作主动性、责任意识、团队协作、严谨细致、服务意识、敬业精神、正直诚信。
-
美团平台为用户的基础产品体验负责,还承担了美团的用户增长、市场和品牌营销、前端技术基础设施建设以及多条业务线的产品设计职责,建立了融合文字、图片、视频和直播等不同形式的內容生态系统,同时整合地图服务部、客户服务和体验部、企业业务部、网约车业务部等部门,致力于用科技提升美团数亿消费者、近千万商家、骑手、司机和团长的服务体验。美团平台拥有高并发、多业务的复杂场景,为技术深度优化提供了最佳实践可能。这里有简单、讲逻辑、有爱的团队,更是一块理想的实战场地,舞台广阔,欢迎你来尽情施展。 岗位职责 1.负责美团平台供给系统的规划及建设,针对不同业务商品的接入流程,存储管理,应用分发等环节进行系统化迭代,为数据的准确性和在各类业务场景的使用效率负责; 2.能通过数据分析、深刻理解商品供给和用户需求,全链路拆解和分析商品数据应用场景,对需求高度提炼和抽象,给出有效解决方案并推动交付落地; 3.对标行业,深入研究商品管理体系,数据管理平台,结合业务特性搭建合理的系统架构,满足业务场景需求的同时,具备高扩展性及易用性; 4.与业务、研发等部门高效沟通,紧密协作,制定合理的落地方案。 岗位基本需求 1.本科及以上学历,3年及以上中后台产品/B端产品经验 2.具备较强的业务思维,善于通过数据发现问题,并推进解决; 3.极度关注客户的体验,能积极主动发现并解决客户的体验问题; 4.有良好的学习和团队协作能力,具备逻辑化、结构化思考能力、责任心强; 5.心态开放,善于沟通与协调,有亲和力,有灵活解决问题的方法。 具备以下者优先 商品产品经验,数据平台经验。 岗位亮点 可以全局了解美团各类业务的供给情况,获得丰富的产品视角和业务经验。
-
职位描述 负责从数据角度解决自动驾驶的相关问题,具体包括: 1. 搭建自动驾驶的全自动数据生产流程,高效支持各模块的数据挖掘、自动标注、算法评测、数据/真值可视化等任务 2. 进行数据挖掘/分析的策略研发工作,结合模型能力降低策略的开发成本和提升挖掘准召率 3. 利用多模态大模型的能力进行case自动分拣,提升路测和量产case的问题流转效率 职位要求 1. ***本科以上学历,有处理真实大规模数据经验。 2. 掌握python/C++编程语言,具备扎实的代码能力。 3. 参与过数据平台开发,有数据可视化/算法评测工具开发的相关经验。 4. 参与过自动驾驶线上算法模块开发,对数据驱动的算法开发有深刻认知。 以上职位要求满足其中一条即可
-
岗位职责: 1、参与产品功能迭代实验、ABT实验效果回收、异动归因、因果推断等 2、熟悉推荐/搜索业务链路,能够构建链路中的数据体系 3. 参与推荐/搜索的策略分析,探索增长点赋能业务增长 3、了解埋点,业务日常数据需求支持,数据提取、报表配置等 岗位要求: 1、3-5年,本科及以上学历,有数学、统计相关专业或数据分析经验优先; 2、熟悉常见的数据分析方法,SQL能力较强; 3、熟悉tableau配置; 4、较强的学习能力、沟通表达能力、理解能力及洞察能力; 5、熟悉AB tesing基本原理和方
-
职责描述: 1、探索平台内部及外部各类数据,形成完整的客户画像体系; 2、从金融产品的各个环节着手,通过量化分析的方式制定专题分析方案; 3、持续监控各产品线风险状况,对关键指标的异动进行及时的分析与原因查找; 4、和其他部门同事协同工作,进行跨部门业务沟通与合作; 5、能够独挡一面,完成数据分析相关工作。 任职要求: 1、***本科及以上学历,熟练掌握SQL语言,并至少熟悉SAS/R/PYTHON之一; 2、能够快速理解业务逻辑,擅长运用量化分析的方法解决业务问题;有金融贷款业务工作经验者优先; 3、能熟练运用Excel的数据分析模块进行数据分析,熟悉Powerpoint优先; 4、工作踏实,逻辑清晰,学习能力强; 5、具有团队管理经验或者相关意向者优先。
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
岗位职责: 1、基于业务理解和发展需求,不断完善各项经营和运营指标体系; 2、负责对数据进行处理、分析、建模和预测,理解数据背后的业务本质,深度挖掘分析不同业务场景下的数据洞察,为业务决策提供数据支撑; 3、负责业务各项经营和运营指标的数据监控和量化分析,挖掘经营和运营上的变化趋势、指标的驱动因素变化等; 4、基于对业务的深刻理解,形成数据表现跟踪的PDCA闭环,分析、评估、执行和展示统计分析的结果。 岗位基本要求: 1、数学、统计学、经济学、计算机等专业者优先,本科及以上学历,3年以上数据分析相关工作经验;有生鲜零售、电商行业相关工作经验者优先; 2、具备数据敏感性和探知欲、分析、解决问题的能力,逻辑清晰,沟通表达和协调能力强; 3、能够承受工作中的挑战;踏实勤奋,有较强的工作投入度和自我驱动力,富有团队合作精神; 4、精通办公软件,熟练运用SQL。
-
工作职责: 1.结合业务,梳理业务逻辑、疏通底层表结构及数据流转关系,搭建中间表; 2.建立全面业务风险监控体系,开发并维护自动化报表,跟踪核心指标变化,监控数据异常并通过数据分析定位问题,提出解决方案。 3.定期展开专题分析,包括但不限于客户画像、额度分析、营销流程和效果分析等,输出分析报告,提出合理的方案建议,辅助决策。 4.外部服务效果评测及对外数据支持(如机构尽职调查数据支持、监管报送等)。 任职资格: 1.统计、金融数学类及其他理工科背景专业,本科及以上学历,研究生优先; 2.3年及以上数据分析经验,熟悉SQL/python/SAS,熟悉tableau等数据可视化工具,有信贷风险数据分析经验者优先。 3.思维敏捷,自驱力强。