-
岗位职责: 1、数据收集与预处理:数据收集:负责从各种数据源(如数据库、文件系统、网络等)中收集数据,确保数据的全面性和多样性。数据预处理:对数据进行清洗、整理、转换和归约等操作,以提高数据的质量和可用性。这包括处理缺失值、异常值、重复值等问题,以及将数据转换为适合挖掘的格式。 2、数据挖掘与分析:数据挖掘:运用统计学、机器学习和数据挖掘技术,对预处理后的数据进行深入分析和挖掘,以发现模式和趋势。这包括分类、聚类、关联规则挖掘、回归分析、时间序列分析等多种方法。数据分析:通过数据挖掘技术发现数据中的隐藏模式、关联规则和趋势,提取有用的信息和知识。这些分析结果可以用于业务预测、市场趋势分析、用户行为研究等多个方面。 3、模型构建与优化:模型构建:根据业务需求和数据特点,选择合适的机器学习算法或深度学习模型,构建数据分析模型。这些模型可以用于分类、预测、推荐等多个场景。模型优化:对构建的模型进行评估和优化,提高模型的准确性和性能。这包括调整模型参数、选择更合适的算法、优化特征工程等方面。 4、数据可视化与报告:数据可视化:利用数据可视化工具(如Tableau、Power BI等)将挖掘和分析的结果以直观、易懂的方式呈现出来。这有助于用户更好地理解数据和分析结果,发现数据中的规律和趋势。报告撰写:撰写数据挖掘和分析报告,向决策者和相关人员解释和说明分析结果,并提出相应的建议和决策支持。这些报告可以包括数据摘要、分析结果、模型性能评估等多个部分。 任职要求: 1、教育程度:计算机、数学、统计学相关专业;本科及以上学历。 2、工作经验:具备5年及以上专业工作经验。 3、知识:熟悉常用数据统计、分析和建模方法;熟练掌握各类算法包括分类算法、聚类算法、关联规则挖掘、异常监测等;熟练使用Python、Sql等语言; 熟悉大数据技术栈和工具,如Hadoop、Flink、Kafka等。 4、技能:熟悉数据作业流程,包括指标体系定义、数据清洗ETL、数据分析挖掘、数据可视化与展示;熟悉各种类型的统计方法,比如概率分布、相关性、回归、随机过程等;能够使用机器学习算法建立数学模型;熟悉常用大数据计算引擎flink;熟悉TensorFlow、PyTorch等深度学习框架。 5、核心能力素质:分析判断能力、解决问题能力、执行能力、沟通能力、文字能力、抗压能力、业务知识、工作主动性、责任意识、团队协作、严谨细致、服务意识、敬业精神、正直诚信。
-
岗位职责: 1. 负责长音频业务数据指标体系建设和维护、核心指标的梳理和监控,数据看板的开发和维护工作; 2. 快速响应数据需求,通过现有的数据产品和提数平台获取数据并输出分析报告; 3. 通过数据专题分析,对业务问题进行深入研究,有效指导运营决策、产品方向。 岗位要求: 1. 三年或以上互联网数据运营或数据分析从业经历,统计、数学、计算机专业等本科以上学历; 2. 具有扎实的统计学、数据分析、数据挖掘基础。熟练掌握HIVE、SQL等相关数据提取工具技能,可熟练通过SQL独立完成相应数据分析需求,熟练掌握至少一种数据分析工具(SPSS、Python、R等),有一定的编程功底; 3. 有丰富的跨团队、部门的项目资源整合能力,能够独立开展项目。
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
职位职责: 1、参与游戏业务的离线和实时数据仓库建设和运维; 2、参与数据ETL流程的优化并解决ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、依托字节跳动成熟的大数据方案,在业务快速落地数据解决方案。 职位要求: 1、计算机相关专业本科以上学历,4年以上大数据相关工作经验; 2、掌握Hive、Yarn、Spark、Flink、Kafka、HBase等大部分大数据相关技术,了解其原理并可完成性能调优; 3、熟练使用HQL,至少掌握Python、Java、Scala、GO其中一种; 4、熟悉Linux操作系统,熟练Shell编程; 5、工作积极主动,能独立分析和解决问题; 6、有责任心,良好的沟通能力和团队合作能力; 7、有游戏行业经验候选人优先。
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
1、根据业务需求进行需求分析、完成 BTL 教据建模、模型开发等工作,与应用、测试良好的沟通完成需求迭代; 2、模型分析,与存汇款、大教据平台等核心系统保持教据同步完整性及教据准确性; 3、快速完成生产问题排查与解决。 4、熟练掌握 SQL 语法,具备 SqI 调优能力,良好的教据库技术背景,能基于大教据平台进行教据建模及数据开发等工作。 5、良好的 ETL 处理能力,熟悉 Hadoop 、 Hive 、 vertica 、Sparksq;任务调度、 Linux 、 Shell 等相关技术栈,优秀的开发实战、性能优化能力。 6、对教据敏感,能在日常工作中对大教据进行教据分析、教据核验、教据治理优先。 7、熟悉银行存汇款等核心系统的业务及教据库模型优先。有较好的文档写作能力; 8、有较强的机行力;有较好的团队意识、适应能力、具有良好的沟通协调能力;抗压能力较强;
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
工作职责: 1. 负责公司内部商业化数据的开发和维护,为产品和营销团队提供数据支持和分析服务; 2. 设计和开发商业化数据仓库和数据集市,实现数据的采集、清洗、存储和分析; 3. 负责数据架构的设计和维护,确保数据准确性、完整性和安全性; 4. 参与业务需求分析和数据建模工作,编写SQL语句完成数据提取、转换和加载(ETL); 5. 能够独立完成数据问题的排查和处理,解决数据质量和性能问题; 6. 具有良好的沟通能力和团队协作能力,与不同部门的业务人员和技术人员合作,推进数据项目的进展。 工作要求: 要求: 1. 本科及以上学历,计算机、数学、统计等相关专业背景; 2. 2年以上数据开发经验,熟悉数据仓库和数据集市的设计和开发; 3. 熟悉大数据平台和工具,如Hadoop、Hive、Spark、Kafka、Flink等; 4. 熟悉数据仓库架构,了解数据仓库建模方法和技巧;
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
Python数据开发工程师 玖奕私募基金,正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等 3、熟悉Linux环境下开发,熟悉常用的Bash指令 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库 5、熟悉MongoDB等NoSQL数据库 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度 7、自驱、认真负责、技术沟通和技术协作能力强 额外加分 1、有金融行业数据处理经验 2、有容器化(Docker)开发部署经验 3、有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda
-
岗位职责: 1、使用建模工具进行信用模型及反欺诈模型开发,包括数据准备、建模及数据分析、模型的选取与优化、模型验证等工作; 2、对海量业务数据进行分析,深度挖掘内部数据,构建风控指标体系并具备开发特征库及解释相应衍生变量、规则的能力; 3、熟悉风控审批、额度、定价策略的制定方法及相应建模流程; 4、针对不同金融机构和业务给出相应的风控建模方案,向客户进行阐释并参与实施; 5、针对客户痛点进行业务引导并提供技术支持; 6、具备探索新业务场景的能力与热情,对于知识与技术向新场景迁移和应用有独立的见解。 岗位要求: 1、三年以上相关领域工作经验,统计、数学、计算机、金融工程等相关专业硕士及以上学历; 2、至少能熟练运用SAS/R/Python中的一种进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 3、掌握逻辑回归、决策树、机器学习等建模方法,了解算法的原理; 4、拥有银行/互金/消金等金融机构数据分析、策略开发以及建模工作经验者优先; 5、具备独立思考能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强; 6、有较强的责任心及抗压能力。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
工作职责: 1、对接企业管理、运营侧的用户数据需求,对数据需求进行分析归纳,输出需求文档 2、基于业务需求,配合业务完成业务流程及业务指标梳理,参与KPI指标设计,撰写需求文档PRD,协助数据团队完成相关数据报表、数据服务及BI看板的设计与开发; 3、有良好的用户需求分析把握能力,能够独立完成需求调研,捕获用户需求痛点,扩展需求,挖掘潜在需求 任职资格: 1、至少3年以上需求分析或产品设计经验 2、了解保险行业业务,具有保险行业数据中台、数据仓库、数据平台、数据应用、数据治理项目经验者优先 3、具备较强的需求分析、产品设计能力、文档撰写能力 4、有数据分析经验,数据敏感性高,熟悉SQL语言、有数据类项目经验优先; 5、候选人需具备较强的逻辑、沟通与组织能力和抗压能力,有项目协调/团队管理的经验优先
-
岗位职责: 1、负责国内酒店业务基础信息业务,目标保证信息准确&有效、信息运营提升转化率 2、通过数据化指导运营团队,分析并优化业务流程,并对人效进行持续改进 任职要求: 1、3年以上工作经验,本科以上学历 2、OTA/地图类/电商POI类产品优先,有基础信息/前端产品工作经验 3、能理清数据传输、加工过程,能观测目标、数据分析找出问题, 2、长期耐心且稳定