• 科技金融,人工智能服务 / 上市公司 / 500-2000人
    岗位职责: 1.结合信贷业务场景,对内部海量数据进行清洗与深度挖掘,提炼稳定且有效的数据产品,为金融机构信贷业务搭建全生命周期模型提供数据基础; 2.使用Python开发并优化逻辑回归、XGBoost、深度神经网络等机器学习模型,结合信贷金融业务属性和场景,提升模型算法的表现,完善金融机构的全场景化模型组合; 3. 全程参与数据产品的研发,包括需求分析、市场分析、产品设计、产品性能测试、上线推广等环节,确保产品的高效交付和稳定运行; 4.积极研究和跟进前沿大数据建模理论和技术,将其有效融入产品开发中,以维持并提升产品的技术竞争力; 5.针对不同信贷金融机构的业务特色,设计定制化的风控和营销解决方案。运用大数据和算法技术,为合作伙伴提供精准的业务支持和服务。 岗位要求: 1.计算机、数学、统计、金融、物理、信息工程等数理专业硕士及以上学历; 2.具有3年及以上银行、消金或者互联网金融等相关的风险模型、数据挖掘相关工作经验,对信贷业务流程和系统有深刻理解; 3.精通风险管理和营销模型的构建方法,熟练掌握统计分析和数据挖掘技术。具备强烈的数据敏感性,能够独立发现并解决问题,具有自我激励和驱动的能力; 4.熟练应用Python、R等数据挖掘工具,掌握逻辑回归、XGBoost等机器学习算法,并了解深度学习和前沿算法的发展趋势; 5.具备良好的团队合作精神,优秀的沟通能力和项目管理技能,能够在快节奏的工作环境中有效推动项目进展。
  • 15k-30k·15薪 经验1-3年 / 本科
    科技金融,人工智能服务 / 上市公司 / 500-2000人
    反欺诈策略 岗位职责: 1、负责反欺诈风险策略与流程的设计制定并形成反欺诈产品,如反欺诈标签、设备反欺诈等,根据防控效果持续优化反欺诈产品; 2、根据金融机构的风控业务需求,梳理出数据产品业务逻辑,完成数据产品的设计和落地;推动产品的持续迭代创新,提升整个产品效能; 3、推动自有数据、三方数据的特征挖掘,并对数据挖掘结果设计风险数据产品; 4、参与反欺诈技术应用设计,包括反欺诈数据埋点采集、复杂网络以及核验技术应用,优化反欺诈技术应用策略。 岗位要求: 1.二年以上互联网、大数据、金融相关行业信贷风控工作经验,统计、数学、计算机、金融工程等相关专业本科及以上学历; 2.熟悉反欺诈风险业务;有独到的产品见解;有银行/互金/消金等金融机构反欺诈产品经理、或者反欺诈策略、或者风险分析从业经验,有设备反欺诈经验者优先; 3.熟练使用SQL/Hive/Spark等数据统计工具,熟练掌握Python/R等至少一种常用语言; 4.具备独立思考能力,信息梳理及概括总结能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强,有较强的责任心及抗压能力。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 13k-18k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-30k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
  • 15k-30k·15薪 经验不限 / 本科
    新能源汽车制造 / 未融资 / 2000人以上
    BA销售运营分析师 职位介绍: 销售运营分析师,需要专注于根据销售市场数据对市场变化、门店销售数据做出正确判断,通过优化资源配置,促进销售提升。并基于对交付数据统计,销售运营分析师需要对各种销售数据进行整合和运营设计实施,并以业务结果进行短、中、长期验证,且对方案持续改善。 职责描述: 1、数据分析及洞察,提升管理可视化: 以订单预估、Pipeline转化、订单质量三大业务管理模块为核心,搭建数据分析工具。并依据数据给予相应的洞察及分析;及时发现异常并预警; 通过工具的设计及追踪,推动各层级管理者数据化管理的思路; 根据业务需要,可以设立并带领区域项目(以数据撬动业务改变); 2、推动组织效率提升: 通过与跨部门的合作及业务重点,推动区域资源最大; 与BD/CRM协同管理区域预算,及市场活动计划(预算提报、活动频率、活动对象等),最大化开口扩大,提升销售线索数量与质量; 与HRBP/Training协同管理门店HC及展厅运营标准,基于市场Traffic的变化,通过门店运营资源,提升和优化门店运营水平; 与超充/家充,置换/金融,交付协同提升区域订单质量; 与MKT/PR/GR/垂媒合作,推动线上传播及转化; 与交付团队协同优化流程,搭建以简化客户时间成本、提升体验的交付流程; 3、其他: 组织并参加跨部门会议,深入到部门的核心问题讨论中; 与中央BA紧密合作,帮助全国政策和系统更新在区域的落地与推动; 销售系统更新推动落地与问题反馈; 任职要求: 1、3+年数据分析工作经验,本科及以上学历; 2、对数据敏感,优秀的数据分析能力和逻辑分析能力,能独立解决跨部门和跨组织的问题; 3、有较强的抗压力,能在快节奏、充满活力、结果导向的环境中工作。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责飞书的数据分析相关工作,有机会能够独立负责关键业务模块,拥有广阔的发展空间; 2、基于对企业办公和协同类工具产品的深刻理解,通过监控关键数据和深入分析,参与业务决策;发现潜在问题与机遇,并提供可靠的数据支持,为产品决策提供坚实基础; 3、全面分析各项影响产品体验提升与用户增长的因素,针对功能体验设计数据增长模型,设计指标量化指引优化方向; 4、有机会参与到飞书商业化模型的设计中,包括但不限于成本拆分、定价模型、售卖策略等等。 职位要求: 1、本科及以上学历,理工科专业背景优先考虑; 2、具备数据分析、数据科学、商业分析等相关领域工作经验,熟练掌握数理统计方法; 3、熟练使用SQL语句,熟悉大数据相关技术应用(如Hadoop、Hive等),擅长Python编程者加分; 4、具备出色的商业敏感度和逻辑推理能力,能够对复杂问题进行框架性思考和系统化分解; 5、具备高度的责任心和自驱力,有能力从业务全局出发,独立挖掘潜在问题,拥有良好的沟通和团队协作能力。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
  • 20k-35k·15薪 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
  • 25k-35k·13薪 经验3-5年 / 本科
    硬件,物联网,电商 / 未融资 / 500-2000人
    岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 18k-23k 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。