-
职位职责: 1、负责关键客户的开拓和维护,深度挖掘并跟进潜在的数据采集业务需求,可独立编写技术方案并对客户进行服务介绍; 2、负责数据采集项目交付全流程,准确评估/跟进项目的交付质量、时间、成本、风险; 3、合理设计项目流程、实施计划、供应商奖惩规则,搭建团队推动落地,及时识别项目交付中的各类风险、阻碍并提供解决方案,积极行动,超预期实现项目质量、进度、成本的控制目标; 4、提升项目运营效率,找出业务流程中存在的问题,提出合理优化建议;沉淀交付方法论,提升从项目规划、采集到数据交付的业务处理效率; 5、负责组织项目各个节点经营分析及项目复盘工作,分析业务数据,为客户提供业务指导决策依据。 职位要求: 1、本科及以上学历,3年以上项目交付管理相关经验,熟悉数据采标、人工智能行业项目管理者优先; 2、具备众包等人力资源调度的项目交付经验; 3、对数据行业有深刻的理解和认知,具备大模型应用相关工作经验者优先考虑; 4、思路清晰,逻辑性强,具备较强的学习能力和沟通能力; 5、有丰富的跨团队沟通协作经验和项目落地经验,能够和客户、供应商等就项目涉及到的各方面内容进行谈判。
-
岗位职责: 1.负责公司业务系统数据库的性能维护、安全性管理; 2.负责公司数据可靠性维护、数据备份和数据容灾; 3.对开发项目提供数据库技术支持; 4.负责数据库运维自动化脚本编写。 任职要求: 1.计算机、软件相关专业本科及以上学历; 2.3-5年相关工作经验; 3.较强的沟通学习能力,对技术有热情,有能力直接跟踪和学习最新的技术和知识; 4.有python或者shell编程能力; 5.有oracle、mysql、mongodb、hadoop至少一种运维能力。
-
职位职责: 1、参与数据中台的汇聚和采集ETL详细设计和开发工作; 2、负责数据平台相关数据管理工作,如研发规范、质量规范、保障规范的制定与推动实施落地; 3、负责数据分析需求的模型开发和实现; 4、负责来自业务团队数据方面的研发需求。 职位要求: 1、5年以上大数据开发经验,精通SQL语言,具备存储过程开发能力,能熟练进行SQL查询优化; 2、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想,了解数据仓库、CDP者优先; 3、熟悉Hadoop、Spark、Flink、Sqoop、DataX、Hive、Flume、Kafka等相关技术; 4、熟练Scala、Python、Java中至少一种语言; 5、具有良好服务意识,抗压力和沟通能力强,有过ToB行业服务经验优先。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
岗位职责: 1、定义数据科学家能力框架和培养计划,组建专业的数据科学团队,推动数据驱动的企业文化建设,提升全体员工的数据意识和数据应用能力。 2、开展数据挖掘工作:聚焦公司战略所涉及的经营决策、营销、分控等场景,配合业务部门,形成数据挖掘课题,搭建数据分析框架和模型,指导数据开发团队准备数据和特征,运用统计学、机器学习等方法对数据进行多维分析,为业务决策提供数据支持和量化依据; 3、搭建数据科学家开展数据分析所需具备的工具平台和数据体系,指导在营销风控系统中的算法工程体系搭建 4、梳理当前业务部门的常用的数据分析模型和方法,固化在数据分析平台,沉淀集团数据模型资产; 5、跨部门协作与沟通,作为数据科学领域的专家,参与公司重要业务会议,解读数据洞察,为业务决策提供数据支持,与集团内部各业务部门保持密切沟通与协作,提供数据驱动的决策建议和解决方案,促进业务与数据的深度融合。 任职要求: 1、教育背景:统计学、数学、计算机科学、数据科学等相关专业硕士及以上学位。 2、工作经验:拥有5年以上数据科学领域工作经验,其中至少3年在保险行业或金融领域担任数据科学管理职位,熟悉保险业务流程和数据特点。 3、技能要求:精通统计学理论和方法,熟练掌握机器学习、深度学习算法,如线性回归、逻辑回归、决策树、随机森林、神经网络、卷积神经网络、循环神经网络等,并能熟练运用相关算法解决实际业务问题。熟练掌握至少一种编程语言,如 Python 或 R,熟悉数据处理、建模和可视化相关的工具和框架,如 Pandas、Scikit - learn、TensorFlow、PyTorch、Matplotlib、Seaborn 等。 4、项目经验:主导过多个大型数据科学项目,涵盖风险评估、客户分析、产品定价等保险核心业务领域,具备从项目规划、数据采集与处理、模型开发到上线部署和效果评估的全流程项目管理经验。在学术期刊或会议上发表过数据科学相关的研究论文,或拥有相关专利者优先。 5、团队管理能力:具备卓越的团队领导和管理能力,能够有效激励和指导团队成员,推动团队达成目标。具备良好的项目管理能力,能够合理安排资源,确保项目按时、高质量交付。 6、沟通能力:具备出色的沟通能力和团队协作精神,能够与不同部门的人员进行有效的沟通和协作,将复杂的数据科学问题以通俗易懂的方式向非技术人员进行解释和汇报。 7、创新能力:具有敏锐的创新意识和洞察力,能够不断探索数据科学在保险业务中的新应用和新价值,推动集团业务的创新发展。
-
工作职责: 1. 负责公司内部商业化数据的开发和维护,为产品和营销团队提供数据支持和分析服务; 2. 设计和开发商业化数据仓库和数据集市,实现数据的采集、清洗、存储和分析; 3. 负责数据架构的设计和维护,确保数据准确性、完整性和安全性; 4. 参与业务需求分析和数据建模工作,编写SQL语句完成数据提取、转换和加载(ETL); 5. 能够独立完成数据问题的排查和处理,解决数据质量和性能问题; 6. 具有良好的沟通能力和团队协作能力,与不同部门的业务人员和技术人员合作,推进数据项目的进展。 工作要求: 要求: 1. 本科及以上学历,计算机、数学、统计等相关专业背景; 2. 2年以上数据开发经验,熟悉数据仓库和数据集市的设计和开发; 3. 熟悉大数据平台和工具,如Hadoop、Hive、Spark、Kafka、Flink等; 4. 熟悉数据仓库架构,了解数据仓库建模方法和技巧;
-
岗位职责 1、ETL & 数据管道开发 设计、开发、优化 ETL 流程,实现数据从 MySQL 及其他数据源同步至 ByteHouse 负责数据 采集、清洗、转换、加载(ETL),提升数据质量和一致性 维护和优化ETL作业,确保数据处理的稳定性和高效性 设计和实现数据管道监控,优化任务调度和错误处理 2、数据湖仓管理 & 性能优化 负责ByteHouse(类似 ClickHouse) 的存储管理、表设计及查询优化 设计数据分层架构,构建高效的数据仓库模型 进行数据治理,包括数据血缘、数据质量管理、Schema 演进 研究和优化数据 冷热分层存储,提高查询性能 3.、数据集成 & 数据治理 负责实时/离线 数据集成(Kafka、Canal、Flink),提升数据时效性 保障数据一致性,处理数据去重、异常检测、主键冲突等问题 设计数据权限管理,保证数据访问合规与安全性 岗位要求 必备技能: 1、熟练使用SQL,有 MySQL、ByteHouse / ClickHouse 经验 2、熟悉ETL开发,有 Airflow / AWS Glue / Flink / Spark 相关经验 3、熟悉数据湖/数据仓库架构设计 4、熟悉Kafka/Canal,了解数据流转机制 5、具备Kubernetes(K8s)及AWS相关经验 加分项: 1、了解 数据治理(数据质量、血缘分析、元数据管理) 2、有分布式存储优化 经验,如 S3 / HDFS + ByteHouse 3、具备 Python / Java / Go 研发能力,能开发ETL自动化工具 4、有ClickHouse/ByteHouse 高并发查询优化经验
-
职位描述 负责从数据角度解决自动驾驶的相关问题,具体包括: 1. 搭建自动驾驶的全自动数据生产流程,高效支持各模块的数据挖掘、自动标注、算法评测、数据/真值可视化等任务 2. 进行数据挖掘/分析的策略研发工作,结合模型能力降低策略的开发成本和提升挖掘准召率 3. 利用多模态大模型的能力进行case自动分拣,提升路测和量产case的问题流转效率 职位要求 1. ***本科以上学历,有处理真实大规模数据经验。 2. 掌握python/C++编程语言,具备扎实的代码能力。 3. 参与过数据平台开发,有数据可视化/算法评测工具开发的相关经验。 4. 参与过自动驾驶线上算法模块开发,对数据驱动的算法开发有深刻认知。 以上职位要求满足其中一条即可
-
岗位职责: 1、深入分析玩家数据,了解玩家行为和偏好,为产品迭代和新功能开发提供数据支持 2、开发和维护数据仪表板,提供实时游戏性能指标和KPI跟踪 3、使用统计学方法和机器学习模型来预测游戏趋势,识别用户增长和留存机会 任职要求: 1、本科以上学历,具备扎实的数据分析和建模相关理论知识,统计学、数学、计算机相关专业优先 2、五年以上数据分析相关工作经验,有丰富的数据驱动业务的实战经验 3、精通Excel,熟悉SQL和至少一种数据分析工具(如Python、R) 4、熟悉Tableau/PowerBI等可视化工具 5、对游戏行业的商业模式、市场趋势和玩家心理有深刻理解 6、出色的分析思维和问题解决能力,能够处理复杂的数据集并提出洞察 7、强大的沟通技能,能够将复杂的分析结果转化为易于理解的报告和展示 8、有数据建模或机器学习项目经验者优先
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
18k-28k·15薪 经验1-3年 / 本科科技金融,人工智能服务 / 上市公司 / 500-2000人主要职责: 1.参与规划、设计、落地公司内部整体风控平台,包括但不限于特征平台、规则引擎、决策引擎、风险处置等模块; 2.与算法团队、产品团队和工程团队紧密协作,统筹资源确保风控策略的准确、高效执行; 3.日常风控数据分析工作,模型、特征上线及管理工作,并能够基于此梳理风控引擎及相关平台优化方案; 4.了解决策式AI在金融场景中的应用,了解利用统计学习和机器学习方法,分析和预测信贷用户违约风险并制定数据驱动的风控审批策略的基本流程和相应的业务及系统改造需求; 5.参与金融风控相关产品的需求分析、设计、开发与优化,承载互联网信贷风控模式和信贷全流程决策; 任职要求: 1.本科及以上学历,2年以上互联网信贷风控产品经验; 2.熟练掌握统计分析软件(如SQL、Python等),具备良好的编程能力。 3.熟悉互联网信贷业务流程,对风控决策引擎和反欺诈系统等深刻认知,具备风控系统架构设计和功能开发能力,了解相关法规和标准; 4.深入了解信贷业务,对行业监管、行业动向和技术有深刻理解,有参与设计或迭代风控决策引擎经验优先; 5.具备良好的团队合作精神,有较强的抗压能力。
-
岗位职责: 1、基于业务理解和发展需求,不断完善各项经营和运营指标体系; 2、负责对数据进行处理、分析、建模和预测,理解数据背后的业务本质,深度挖掘分析不同业务场景下的数据洞察,为业务决策提供数据支撑; 3、负责业务各项经营和运营指标的数据监控和量化分析,挖掘经营和运营上的变化趋势、指标的驱动因素变化等; 4、基于对业务的深刻理解,形成数据表现跟踪的PDCA闭环,分析、评估、执行和展示统计分析的结果。 岗位基本要求: 1、数学、统计学、经济学、计算机等专业者优先,本科及以上学历,3年以上数据分析相关工作经验;有生鲜零售、电商行业相关工作经验者优先; 2、具备数据敏感性和探知欲、分析、解决问题的能力,逻辑清晰,沟通表达和协调能力强; 3、能够承受工作中的挑战;踏实勤奋,有较强的工作投入度和自我驱动力,富有团队合作精神; 4、精通办公软件,熟练运用SQL。
-
20k-30k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;
-
主要职责: 1. 负责媒体业务的大数据平台的建设工作,包括埋点、收集、加工、应用全流程的建设和迭代工作; 2. 负责数仓建设,制定数据规范,完善数据治理,提升数据产出效率和质量; 3. 对接业务方,为业务服务提供高效率、高可用的数据服务/数据产品; 4. 培养团队成员,组织技术分享,促进团队成员进步。 岗位要求 1. 计算机相关专业本科及以上学历,5年以上大数据方向工作经验; 2. 熟悉数据仓库建模,有实际的实时/离线数仓建模经验,具备一定的Java研发能力; 3. 深入了解大数据技术栈,熟悉spark、flink、hive等技术; 4. 熟悉springboot及相关技术; 5. 良好的沟通能力,团队意识以及跨团队协作能力; 6. 有团队管理经验优先。