-
职位职责: 1、在对产品增长业务理解的基础上,负责增长相关数据管理工作,跟进数据采集、核心指标构建及看板搭建和维护; 2、在数据建设的基础上进行线索增长分析,并进行线索质量评估,分析输出相应的优化策略,并跟进增长动作落地及效果评估; 3、主动进行产品功能及应用场景分析探查,通过跟踪和监控重点数据,发现潜在的问题与机会,给出数据支持、分析报告、问题解决方案建议,为业务决策提供数据支撑。 职位要求: 1、本科及以上学历,计算机科学、数理统计、数学、经济学等相关专业优先; 2、具备一定的数据分析工作经验,有过ToB商业化、产品相关分析经验,有一定行业背景,深度参与过新业务增长加分; 3、熟练掌握SQL、Python/R等数据分析工具和编程语言,熟悉Hadoop、Hive、Flink等大数据相关技术应用,能够高效地进行数据提取、清洗和分析; 4、熟练掌握数理统计方法,逻辑性好; 5、具备严谨的逻辑思维能力和强烈的好奇心,能够深入挖掘数据背后的价值;具备良好的沟通能力和团队合作精神,能够与不同部门的人员协作完成线索增长和评估任务; 6、有较强的学习能力和自我驱动力,能够快速适应不断变化的业务需求和数据分析技术;敢于表达观点,能独立负责具体项目完整分析,拿结果。
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
岗位职责: 1、定义数据科学家能力框架和培养计划,组建专业的数据科学团队,推动数据驱动的企业文化建设,提升全体员工的数据意识和数据应用能力。 2、开展数据挖掘工作:聚焦公司战略所涉及的经营决策、营销、分控等场景,配合业务部门,形成数据挖掘课题,搭建数据分析框架和模型,指导数据开发团队准备数据和特征,运用统计学、机器学习等方法对数据进行多维分析,为业务决策提供数据支持和量化依据; 3、搭建数据科学家开展数据分析所需具备的工具平台和数据体系,指导在营销风控系统中的算法工程体系搭建 4、梳理当前业务部门的常用的数据分析模型和方法,固化在数据分析平台,沉淀集团数据模型资产; 5、跨部门协作与沟通,作为数据科学领域的专家,参与公司重要业务会议,解读数据洞察,为业务决策提供数据支持,与集团内部各业务部门保持密切沟通与协作,提供数据驱动的决策建议和解决方案,促进业务与数据的深度融合。 任职要求: 1、教育背景:统计学、数学、计算机科学、数据科学等相关专业硕士及以上学位。 2、工作经验:拥有5年以上数据科学领域工作经验,其中至少3年在保险行业或金融领域担任数据科学管理职位,熟悉保险业务流程和数据特点。 3、技能要求:精通统计学理论和方法,熟练掌握机器学习、深度学习算法,如线性回归、逻辑回归、决策树、随机森林、神经网络、卷积神经网络、循环神经网络等,并能熟练运用相关算法解决实际业务问题。熟练掌握至少一种编程语言,如 Python 或 R,熟悉数据处理、建模和可视化相关的工具和框架,如 Pandas、Scikit - learn、TensorFlow、PyTorch、Matplotlib、Seaborn 等。 4、项目经验:主导过多个大型数据科学项目,涵盖风险评估、客户分析、产品定价等保险核心业务领域,具备从项目规划、数据采集与处理、模型开发到上线部署和效果评估的全流程项目管理经验。在学术期刊或会议上发表过数据科学相关的研究论文,或拥有相关专利者优先。 5、团队管理能力:具备卓越的团队领导和管理能力,能够有效激励和指导团队成员,推动团队达成目标。具备良好的项目管理能力,能够合理安排资源,确保项目按时、高质量交付。 6、沟通能力:具备出色的沟通能力和团队协作精神,能够与不同部门的人员进行有效的沟通和协作,将复杂的数据科学问题以通俗易懂的方式向非技术人员进行解释和汇报。 7、创新能力:具有敏锐的创新意识和洞察力,能够不断探索数据科学在保险业务中的新应用和新价值,推动集团业务的创新发展。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过数据治理或数据仓库设计优先;
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位描述: 1、通过对用户行为及市场、行业的洞察分析,识别客户消费偏好及场景,围绕用户获客、活跃、增收、挽留等目标,结合实时营销等工具,针对用户的不同阶段制定整体用户不同生命周期的营销策略,并根据策略制定推广计划,统筹各项活动进展及调整活动方向; 2、负责业务领域核心数据体系的规划设计,并推动数据采集和数据口径规范。搭建数据服务产品(业务报表开发和维护),利用可视化工具输出动态仪表盘,赋能业务; 3、通过业务数据分析及时检测业务健康度,并针对异常点开展专项深度分析,发现问题并提供合理业务建议; 4、客户画像标签定制,并落地到相关数据营销系统,助力用户精准营销; 5、负责市场关键业务指标的年度预算制定与分解,定期滚动提供合理的业务预估。 任职要求: 1、重点本科及以上学历,理工科、统计学背景,5年以上相关工作经验; 2、对金融业感兴趣,对数据业务场景敏感,能够横向协同,跨界整合资源,有效结合业务形成一套完整的数据解决方案; 3、具备金融行业或互联网企业前瞻性的整套数据管理、数据服务等解决方案的规划和落地经验尤佳; 4、掌握SQL,以及Python/SAS/R语言(至少一种)的数据分析处理技能; 5、优秀的思维逻辑性、语言表达能力; 6、有一定的市场敏锐度,商业嗅觉敏锐者优先。
-
工作职责: 1、基于业务发展和风险要求,能够独立挖掘关键变量,优化贷中的额度策略; 2、基于业务逻辑,能够独立构建评分卡,辅助和优化相关风控策略; 3、独立评估策略和模型效果,出具相关分析报告; 4、能够独立部署相关监控及密切关注风险和业务各项指标,及时发现异常; 5、支持数据提取和分析需求; 6、与多部门沟通合作,提高业务整体发展效率; 7、能在规定时间内完成相关分析及策略优化。 任职要求: 1、**本科及以上学历,统计、计量、数学、计算机等相关专业; 2、具有风控相关工作经验,如风控策略、模型; 3、熟悉相关机器学习算法,包括不限于逻辑回归,决策数,gbdt、xgboost等; 4、能够熟练使用SQL、Python或R、SAS; 5、对数据敏感,有风险意识; 6、有较强的逻辑分析和沟通能力,及团队合作意识。
-
20k-30k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
岗位职责 1、负责数据类项目实施方案编写; 2、负责项目实施过程中项目进度的管理,并定期给甲方及公司汇报; 3、负责项目现场的沟通协调; 4、项目组人员的工作安排; 5、评估项目中数据库设计、SQL的合理性,并提出改进意见; 6、能够解决项目中常见的技术问题; 7、负责项目验收。 任职要求: 1、具有5年以上项目管理经验; 2、掌握开发信息系统的综合技术知识(硬件、软件、网络、数据库); 3、掌握主流数据建模工具软件和方法; 4、熟练掌握ORACLE开发技术,熟练掌握PLSQL及存储过程开发,熟悉常用函数,具有ORACLE、Mysq、Postgresql、Mongodb、FastDfs、国产数据库开发经验,有石油石化行业经验者优先; 5、精通传统的数据仓库技术及大数据仓库技术,如hive、Hbase等 6、了解各类非结构化数据库、实时数据库; 7、具有大学本科及以上学历,计算机或相关学科专业。
-
【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
-
岗位职责: 1.用户运营数据分析支撑,通过用户特征、行为数据、产品转化数据等对业务进行挖掘和分析,挖掘数据并进行数据的统计建模分析; 2.通过数据分析找出潜在趋势、特点、异常等,对精细化运营提供支持; 3.结合业务特点,探索并建立分析主题,对数据进行深度分析和挖掘,输出可读性强的分析报告;针对不同产品出具分析报告,支持各产品的数据分析,并提出优化策略; 4.针对产品、数据模型建立直观的评价指标体系,根据指标体系,指导运营和业务; 5.将数据分析成果应用于实践,并持续进行跟踪与优化; 6.制定数据分析的工作流程和规范,协助建立分析平台; 7.根据业务要求,结合实际工作需要,协助挖掘新的数据沉淀机会,并据此产生创新应用价值。 任职要求: 1.**211、985本科及以上学历,计算机或数理统计相关专业毕业; 2.两年及以上数据分析经验。 3.熟练掌握SQL,了解Python、R等,加分项:有算法实际应用并取得成果; 4.具有互联网金融、互联网保险、电商、社交、游戏等平台类运营、用户运营经验或产品运营经验,有互联网金融、互联网保险经验尤佳; 5.具有较为成熟的业务思维能力和业务分析方法论,有较为丰富的数据推动业务的实践经验; 6.使用过Tableau等数据可视化工具。 7.熟悉HIVE数据库,能熟练使用基础Shell命令; 8.具有良好的学习能力、时间管理意识、沟通能力
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
职位职责: 1、负责抖音到家外卖业务的整体数分工作,设计全局性指标体系,定期输出日、周、月度报告,对核心数据变化趋势跟踪分析; 2、分业务线/分模块的关键指标分析、专项分析,及时敏锐的发现业务变化、洞察规律,挖掘业务风险与机会,支持业务进行路径探索、诊断优化、业务复盘等,提出有建设性的决策建议; 3、及时发现业务问题、团队问题,并提供优化建议,推动业务优化、人员成长以及管理效率提升。 职位要求: 1、本科及以上学历,5年及以上数分经验,有外卖行业经验优先; 2、优秀的数据敏感度,有丰富的数据挖掘、信息采集整理和逻辑分析能力; 3、具备成熟的指标框架构建能力和各类分析方法,针对业务问题可以进行体系化的指标拆解、提出解决方案,并产出高质量的分析报告。