-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
岗位职责 1. 参与数据治理规划,制定详细的治理专项计划与实施方案,负责数据治理专项的整体推动; 2. 负责制定数据管理相关政策、制度、流程的方案,并推进实施落地; 3. 负责数据治理解决方案规划及实施,包括数据治理体系、数据架构与标准、数据质量、元数据管理、数据湖、数据主题联接、数据服务、数据分析和数据安全等方面的工作; 4. 分析数据现状,总结数据业务问题,并提出合理的解决方案。梳理数据资产(如数据目录、指标维度体系、标签体系、主数据等); 5. 研究与引入业界优秀的理论体系、解决方案、工具装备等。 任职要求 1. 本科及以上学历,数学、计算机或统计学专业,5年及以上数据管理相关工作经验,有制造行业数据相关背景优先; 2. 熟悉数据管理和数据治理相关理论与方法,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法; 3. 熟悉数据项目开发流程,能和设计人员、数据开发人员、运营人员紧密配合,协调和推进各方面工作; 4. 熟悉业界先进的数据治理相关产品和软件,了解数据湖、Hadoop、Spark、数仓、BI等平台和工具的优先; 5. 有良好的的沟通能力、逻辑思维能力和推动力; 6. 对DAMA、数据成熟度评估等方法论有较深刻的理解,有CDMP,CDGA、CDGP等数据治理证书优先。
-
岗位描述 大众点评作为国内重要的本地生活消费决策参考平台,多年来深耕本地生活消费领域,深受广大用户的信任和喜爱。我们的业务覆盖了吃喝玩乐游购娱等生活场景,通过极具辨识度和公信力的”星级“和”评价“产品,为数亿用户提供了全面、可信的消费决策依据。为更好满足用户探索城市的需求,大众点评在原有星级和评价的基础上,以信息流产品形式,助力用户发现更多好去处。大量优秀年轻同学的加入,为我们的团队注入了澎湃活力。我们相信,真实的生活是不可替代的,真实的感受是值得记录的,真实的美好是要被看到的。希望优秀的你能和我们一起,帮助广大用户在大众点评上发现更多好去处,找到属于自己的人间烟火气,共创美好生活。 岗位职责 1. 负责热点运营系统设计和开发,结合数据分析和算法模型,实时监测并生成热点话题,帮助运营提供精准的运营策略,以提高用户粘性和活跃度; 2. 负责内容分发策略运营系统设计和开发,构建线上化和配置化的分发策略管理能力,为各类场景提供工具支撑; 3. 参与大众点评笔记业务相关运营系统的架构演进,对复杂问题进行拆解和落地,保障系统架构的合理性和前瞻性。 岗位基本需求 1. 本科及以上学历,3年以上Java开发经验; 2. 计算机专业基本功扎实,具备良好的编程基础和数据结构算法基础,较强的编程能力和问题解决能力; 3. 精通面向对象设计开发、设计模式,面对复杂系统、复杂问题有化繁为简的能力; 4. 熟悉Java语言,具备扎实的Java基础,熟悉IO、多线程等基础技术,对多线程使用、并发处理、JVM基本原理有一定认识; 5. 熟悉大数据生态技术,如Hadoop/Spark/Flink/Hive等; 6. 具备优秀的业务理解能力,能够主动从业务问题出发提出技术解决方案; 7. 具备良好的沟通合作能力,有较强的责任心和自驱力,能够积极推动项目落地并产生结果。 具备以下者优先 1. 热爱互联网和新技术,具有较强的快速学习能力,研究过优秀开源软件的源码并有心得者优先; 2. 有CRM、SCRM等领域的系统设计开发经验者优先。 岗位亮点 1. 有机会参与笔记运营场景业务系统建设,积累体系化的业务领域知识和相关系统研发经验; 2. 良好的沟通协作和技术氛围,较大的内部发展空间。
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营; 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先。
-
职位职责: 1、负责部门业务数据统计分析,分析跟踪业务变化,提出业务优化及管理改进建议,数据驱动支持业务决策和管理; 2、跟踪业务重点项目进展,建立业务数据模型,对业务经营发展状态进行监控分析,发掘业务痛点&提出策略建议,并协助推进落地和效果分析; 3、部门业务数据报表设计和呈现。 职位要求: 1、3年及以上相关工作经验;数学、统计学、计算机相关专业,本科及以上学历; 2、熟悉SQL及大数据处理技术,至少掌握Hadoop/Hive/Spark/Flink其中一项;熟悉Python、有模型搭建经验者优先; 3、有较强的数据敏感性和业务理解能力,能够快速理解业务并制定合理的分析方案;有0-1独立推进项目经验优先; 4、熟悉常规数据分析及挖掘方法,包括特征工程、统计学习、分类聚类等; 5、表达沟通能力强,善于在跨部门沟通中协调资源,善于学习,思维活跃,善于从数据中发现、思考并解决问题。
-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,参与稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,支持提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.熟悉spark/hive组件原理和应用,精通spark内核相关知识和技术,有较大规模RSS生产实施经验。 3.了解大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有AWS/GCP/阿里云等云平台使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
岗位职责: 1.独立完成建模方案设计、模型开发及部署,运用各类算法开发包括不局限于反欺诈、信用评估、额度模型、行为评分、催收评分等风险模型及营销响应、流失预警等营销模型。并对现有模型进行优化完善;根据客户需求,独立带领项目成员进行咨询项目的实施,包括方案设计、项目计划安排、实施过程管理、项目质量把控、报告撰写及交付汇报; 2.充分了解客户业务端审批流程及风险表现,结合用户特征,制定或优化贷前、贷中及贷后风控策略;为客户提供用户分层筛选、审批自动化率提升、差异化营销手段、渠道管理等策略建议; 3.配合商务进行客户需求沟通、方案讲解及咨询支持,对客户提出的业务痛点提供有效的解决方案及量化的决策建议;统筹分析并定位信贷机构风险/运营管理中出现的问题,结合行业动态趋势、监管力度,把握市场机遇,提供有效落地的解决方案,促成项目开展和有效落地; 4.不断学习/探索/优化算法,通过量化算法、业务经验等,基于内外部数据,统筹设计、开发有效用于风险/运营管理的创新数据及模型产品,并推进其实施落地;基于自身对汽车金融行业与风控、营销特征的理解,设计新模式/新解决方案,并尝试推进实施落地。 岗位要求: 1.硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2.5年以上银行、持牌消金、头部互金、金融科技公司模型及策略相关工作经验,有汽车金融相关经验/金融科技公司工作相关经验/项目管理经验优先; 3.至少能熟练使用Python/Spark/R其中一种分析及建模工具,数据挖掘及建模经验丰富,能够有效利用LR/树型机器学习/神经网络等深度学习算法构建特征与模型; 4.对零售信贷市场、信贷产品形态有深刻的认知;对全生命周期风控管理流程有深刻的理解,并掌握各环节的风控要点及风控策略制定逻辑; 5.具备独立思考的能力,逻辑严谨,对数据敏感,善于发现,探索并解决问题,自我驱动力强;与时俱进,对不断更新迭代的算法(如GPT)持续学习和应用; 6.工作主动性强,踏实、勤奋、细心,愿意并乐于接受新尝试、新挑战,探索创新主动性强;
-
岗位职责: 主要负责Klook支付、风控系统研发及日常维护工作,与产品密切配合,保证业务需求的高效落地; 负责管理自身项目和需求的优先级、按时高质量交付; 推动团队应用优秀的软件工程方法论,Code review 保证团队交付质量; 解决系统疑难杂症,参与技术方案讨论,技术驱动解决业务问题; 有较强的工作责任心和良好的沟通协调能力,能在压力下独立解决问题。 任职要求: 熟练掌握Golang/Java语言,具有扎实的计算机基础和编程能力,熟悉常见的算法与数据结构; 负责过大型项目系统设计,具备系统抽象能力,熟悉Restful接口设计,有过互联网业务系统或相关技术产品开发经验; 熟练掌握MySQL数据库,擅长SQL优化,有大数据开源组件和关系图谱使用经验,至少熟悉kafka/es/mongodb/hbase/spark/flink/influxdb/neo4j中的2~3项,熟悉常见的大数据处理技术; 有支付、风控、反爬虫从业经验者优先,电商类项目经验优先(支付平台、收银平台、海外支付网关、风险控制平台、决策引擎、数据平台),开源贡献者优先、GitHub源码者优先、技术博客者贡献者优先。
-
岗位职责: (1)负责数据清洗、数据分析、数据挖掘、数据服务等; (2)负责与外部门信息交换的技术管理工作; (3)利用技术手段对客户信息进行技术分析和应用服务; (4)运用数据分析建设业务模型,并持续跟踪优化; (5)负责领导交办的其他工作。 任职资格: (1)计算机、数学、统计学等相关专业本科及以上学历,具备扎实的专业基础知识; (2)3年以上数据技术领域工作经验,熟悉大数据平台架构与关键技术; (3)熟练掌握Hadoop、Spark、Kafka等大数据处理框架,具备丰富的实战经验; (4)具备良好的数据建模、数据挖掘与数据分析能力,能够运用SQL、Python等语言进行数据处理与分析; (5)熟悉数据仓库、数据湖等数据存储技术,具备数据治理与数据安全方面的经验; (6)具备良好的团队协作与沟通能力,能够适应快节奏的工作环境,具备较强的抗压能力; (7)对新技术充满热情,具备较强的学习能力和创新意识。
-
工作职责: 1.承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2.负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3.设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4.负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1.具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2.具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3.精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4.熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5.对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6.具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
反欺诈策略 岗位职责: 1、负责反欺诈风险策略与流程的设计制定并形成反欺诈产品,如反欺诈标签、设备反欺诈等,根据防控效果持续优化反欺诈产品; 2、根据金融机构的风控业务需求,梳理出数据产品业务逻辑,完成数据产品的设计和落地;推动产品的持续迭代创新,提升整个产品效能; 3、推动自有数据、三方数据的特征挖掘,并对数据挖掘结果设计风险数据产品; 4、参与反欺诈技术应用设计,包括反欺诈数据埋点采集、复杂网络以及核验技术应用,优化反欺诈技术应用策略。 岗位要求: 1.二年以上互联网、大数据、金融相关行业信贷风控工作经验,统计、数学、计算机、金融工程等相关专业本科及以上学历; 2.熟悉反欺诈风险业务;有独到的产品见解;有银行/互金/消金等金融机构反欺诈产品经理、或者反欺诈策略、或者风险分析从业经验,有设备反欺诈经验者优先; 3.熟练使用SQL/Hive/Spark等数据统计工具,熟练掌握Python/R等至少一种常用语言; 4.具备独立思考能力,信息梳理及概括总结能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强,有较强的责任心及抗压能力。
-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
【岗位职责】 1.协助进行国家重点项目中的ETL、指标计算、数据治理等的研发工作; 2.协助进行数据中台设计和研发,为知识图谱、人物建模、搜索推荐等提供高质量数据,开发灵活可扩展的处理流程以及直观易用的数据界面; 3.协助进行全球多语言技术数据的抓取/补全; 4.协助进行数据正确性/完整性自动化检查; 5.协助进行自动抓取入库流程框架开发; 6.数据统计框架开发; 7.相关数据文档的撰写。 【岗位要求】 1.硕士,计算机/数学相关方向专业,可确保每周3天实习; 2.熟练掌握python编程,了解常用的数据处理库如pandas等; 3.熟悉mysql数据库,能够熟练编写sql语句并优化; 4.有数据清洗、数据处理、数据自动化监测经历者优先; 5.熟悉一种或多种主流开源大数据平台组件者优先,如Flume、Kafka、Hadoop、Hive、Spark、Flink; 6.了解数据分析/挖掘常用方法者优先,如序列分析、关联分析、异常点挖掘、分类、聚类等; 7.有编程竞赛获奖经历者优先,如 ACM、中国大学生程序设计大赛、蓝桥杯、CCF 相关竞赛或 CCF 等级考试相关、PAT 等级考试; 8.良好的团队合作,较强的沟通能力、学习能力,对解决具有挑战性问题充满激情。
-
基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 1.结合美团业务需求,在深入理解Elasticsearch内核的基础上,进行架构优化、性能提升以及新特性开发。 2.大规模ES集群运维能力建设,参与美团Elasticsearch产品的运营建设、日常维护,与业务持续提升系统的稳定性。 3.深度参与到Elasticsearch离线数据平台建设和架构演进。 4.跟踪业内发展动态和趋势,有选择地将业界实践引入到美团。 岗位基本需求 1.有扎实的编程基础,至少精通一门开发语言(java, c/c++, python,go)。 2.对新技术敏感,追求卓越,能快速学习并具备较强的技术领悟能力。 3.积极主动,沟通顺畅,有快速学习能力,乐于探索未知领域。 具备以下者优先 1. 熟悉Elasticsearch/Rocksdb等开源产品 或者 2. 熟悉Spark/Flink/Hbase等大数据产品 或者 3. 具有较大规模平台开发及运维治理经验 岗位亮点 深度参与大规模基础架构产品的开发和运维治理,参与高性能、分布式存储系统的开发。 如果你不甘平庸、有志于用技术使得生活变得更美好,如果你对搜索怀有极大热情,乐于与一流技术团队共事,欢迎加入我们。
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。