-
岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开发数据采集、清洗、分析、挖掘及可视化功能,需熟悉ES、milvus、pgsql等。 3.熟悉国产数据库,包括doris等; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.***本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.有信控平台开发经验者优先录取。
-
职位职责: 1、负责电商商家和达人产品的数据监控,构建商达业务指标体系、形成体系化的日常业绩追踪机制,并推进相关数据基础建设; 2、深入客户视角,充分理解电商各产品线的功能及目标,参与产品相关功能和策略的设计和优化; 3、主动发现问题和业务痛点,独立承接商家达人方向研究洞察专题,提出短中长期可落地业务建议,协助业务提效增收。 职位要求: 1、3年以上数据分析工作经验,具备电商B端产品分析经验者优先,计算机,统计学、数学、经济学专业优先; 2、具备构建数据指标体系知识框架,曾有过构建指标体系经验;掌握基本数据分析方法,对数据落地到业务有一定经验,有专业的分析报告撰写能力; 3、熟练使用Excel、精通SQL、Hive,至少可以熟练使用一种数据可视化分析工具,擅长R和Python者优先; 4、沟通表达能力优、抗压能力强、协调推动能力强,具备深度思考能力; 5、有电商/品牌/零售/供应链/内容平台相关工作经验者优先。
-
职位职责: 1、负责统筹和推进字节跳动数据中心供应链内、外部数据系统的构建 (建模),搭建供应链的数据分析体系,包括KPI指标体系、报表体系、专题分析体系等; 2、识别供应链绩效(供应链计划、运营管理、库存分析、成本分析等)的关键影响因素、绩效管控和优化点,提出可行的绩效改善方案,推动供应链关键指标的改善; 3、推进数据可视化工作,提升供应链数据分析效率和数据价值转化等; 4、负责供应链相关基础数据建设,包括数据采集、清洗、加工、汇总等,确保数据准确、及时、安全、可信; 5、负责数仓规范、数据治理、数据血缘、数据地图、数据应用等数仓建设工作; 6、负责开发实时数据和离线数据,推动全链路数据线上化和数字化建设;搭建供应链控制塔; 7、深入理解业务细节,快速响应需求,对数据进行抽象建模,沉淀供应链行业数据模型。 职位要求: 1、本科以上学历,数学、统计学、运筹学、计算机科学与技术等专业,具备扎实的计算机科学功底、编程基础和数据结构算法基础,良好的工程素养,高效的问题解决能力; 2、熟练掌握主流的数据分析方法(回归分析、关联分析、聚类分析、时间序列分析等)及数据建模能力,了解常用机器学习方法; 3、掌握主流大数据和流式数据处理技术,如Flink、Storm、ES、HBase等; 4、理解数据仓库模型及思想、维度建模思想; 5、精通SQL语言,具备存储过程与ETL的开发能力,能熟练进行SQL查询优化。
-
工作内容 职位描述: 1. 参与数据仓库规划、架构及研发,包括离线、实时的数据模型规划,建设PB级的数据集市和数据平台。 2. 负责数据模型的规划、架构、开发以及海量数据下的性能调优,复杂业务场景下的需求交付。 3. 参与平台数据治理相关工作,负责数据质量、数据一致性及稳定性保障等建设。 4. 深入业务,与业务团队紧密合作,理解并合理抽象业务需求,发掘数据价值,以数据驱动业务不断发展。 5. 关注行业技术趋势,引入新技术和工具,持续优化大数据处理流程与性能,提升业务的数据处理效率和价值产出。 岗位要求 任职要求: 1. 本科及以上学历,计算机、软件工程、数据分析或相关专业出身,2-5年大数据开发经验。 2. 掌握Java, Python等至少一门语言,熟悉常用数据结构与算法。 3. 熟悉大数据生态技术栈,具备较丰富的Hadoop,Hive,Spark,Flink等开发经验。 4. 精通数据仓库理论体系,对分层设计、维度建模等有深刻的认识和实战经验,熟悉不同建模方法的优劣。 5. 积极主动贴近业务,有良好的沟通协调能力,数据敏感度高,能够快速理解业务模型及数据模型,从业务角度出发分析和解决数据问题。 6. 具备优秀的问题解决能力和团队协作精神,对大数据技术充满兴趣,学习能力和自我驱动力强 7. 有数据中台建设经验优先。有数据分析能力、指标体系搭建或BI相关经验优先。有互联网工作经验优先。 8. 加分项:英文沟通表达、云平台(如阿里云、AWS、Google Cloud)经验。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营; 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先。
-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
20k-30k·15薪 经验3-5年 / 硕士科技金融,人工智能服务 / 上市公司 / 500-2000人岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 硕士及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
主要职责: 1. 承担大数据平台日常数据开发、运维工作; 2. 承担ODS ETL相关工作,主要包含数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 参与数据治理工作,保障数据质量; 4. 承担相关报表的数据准备,利用BI工具开发相关业务报表; 5. 完成部门布置的其他与数据相关任务。 招聘要求: 1. ***大学本科及以上学历,计算机或数学相关专业,3-5年与数据相关工作经验; 2. 熟悉大数据主流开发框架:Hive、Hadoop、Flink、Sqoop等常用组件的使用,具备性能调优经验者优先; 3. 熟悉数据仓库使用及优化,深入了解数据仓库体系及实施,有实际支撑业务场景经验; 4. 数量掌握SQL、Python等编程语言,具备Java实际项目经验者优先; 5. 善于沟通,对数据具有一定敏感度,能快速理解业务背景,能承担工作压力,具备良好的适应能力。
-
反欺诈策略 岗位职责: 1、负责反欺诈风险策略与流程的设计制定并形成反欺诈产品,如反欺诈标签、设备反欺诈等,根据防控效果持续优化反欺诈产品; 2、根据金融机构的风控业务需求,梳理出数据产品业务逻辑,完成数据产品的设计和落地;推动产品的持续迭代创新,提升整个产品效能; 3、推动自有数据、三方数据的特征挖掘,并对数据挖掘结果设计风险数据产品; 4、参与反欺诈技术应用设计,包括反欺诈数据埋点采集、复杂网络以及核验技术应用,优化反欺诈技术应用策略。 岗位要求: 1.二年以上互联网、大数据、金融相关行业信贷风控工作经验,统计、数学、计算机、金融工程等相关专业本科及以上学历; 2.熟悉反欺诈风险业务;有独到的产品见解;有银行/互金/消金等金融机构反欺诈产品经理、或者反欺诈策略、或者风险分析从业经验,有设备反欺诈经验者优先; 3.熟练使用SQL/Hive/Spark等数据统计工具,熟练掌握Python/R等至少一种常用语言; 4.具备独立思考能力,信息梳理及概括总结能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强,有较强的责任心及抗压能力。
-
工作职责 业内研究表明,生成式的推荐系统存在Scaling Law现象,Scaling Law的出现相较于现有推荐系统无法通过扩充持续提升效果的现象,提出了新的可能性。该团队负责小红书生成式推荐方向,目前已经完成了原型架构的开发和线上验证,欢迎业内在推荐/广告/搜索等领域的专家一起,共同探索生成式推荐在真实业务场景的价值。 【职位描述】 1、负责生成式推荐在小红书社区推荐&展示广告场景的研发; 2、在生成式架构下,重新思考传统推荐架构中的行为建模技术(如超长序列、多兴趣等),并在召回/排序等场景中进行应用; 3、与MLLM和架构团队配合,将其他生成式模型的知识和能力迁移进实时的生成式推荐架构中; 任职资格 【任职资格】 1、3年以上工作经验,熟悉推荐系统,在召回、排序、混排中任一模块有丰富的迭代经验; 2、动手能力极强,有ACM竞赛名次或参与过业内高难度项目; 3、具备大规模场景下的创新能力,在实际业务场景中发表过高水平论文者优先;
-
【工作职责】 1.【经营分析】持续迭代经营分析框架及指标体系,负责经营分析,输出经营报告,发现业务问题,提出解决策略,推进业务问题改善; 2.【业务提升】定期开展客户、竞品、市场研究,总结业务规律,挖掘内外部经营优秀实践,并协同团队推进组织流程和运营机制建设; 3.【数据模型与工具】参与数据模型的研讨及开发,协同产研团队持续完善经营数据和自动化诊断产品,提高数据应用价值、提升业务人员经营分析效率; 4.【市场研究】参与市场研究,深入了解行业规则和市场态势,紧跟市场动向,为业务管理者提供行业预判; 5.【承接重点工作】有机会承接公司级重点经营工作专项,担任项目负责人,制定项目目标、拆解行动计划、推进项目落地。 【职位要求】 1.3年以上工作经验,统计学、数学、计算机科学、商业分析或相关专业; 2.有基本的数据处理能力,熟练使用SQL、Python、SmartBI、帆软等数据分析工具。 3.良好的商业洞察力和经营分析视野,对推动创新和优化的事情富有热情; 4.具备较好的口头和书面沟通能力,有团队合作精神,擅长推动跨团队项目合作 5.自我驱动、善于独立思考和抗压能力强、有韧劲。 【岗位亮点】 该岗位所在部门为泊寓核心业务团队,部门负责全国门店业绩管理、业务流程与商业模式设计,团队配备业务运营人员、产研人员、经营分析师等全面编制,由泊寓高管直接管理。有充足的机会参与参与公司战略级项目,与公司高层直接对话、行业大牛共同学习成长,深度洞察长租公寓行业经营逻辑,个人能力积累方向更为全面,且未来职业发展的机会更多。 团队负责企微SCRM、销售漏斗系统、租住订单系统、收益管理系统、门店工作台等多款门店经营核心产品,完善的数字化业务流程与丰富的数据产品(SmartBI、帆软、GIO等)支撑高效经营分析。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位职责: 1、需求收集和分析:与用户和内部团队沟通,收集用户需求,分析竞争对手的产品特点,确定产品的功能和特性。 2、产品规划:根据市场需求和公司战略,制定产品的长期和短期规划,包括产品路线图和发布计划。 3、产品设计:负责产品的界面设计、用户体验设计,确保产品符合用户需求和市场需求。 4、迭代优化:产品上线后,持续跟踪产品数据,进行数据分析,根据业务反馈调整产品功能和优化用户体验。 任职要求: 1、**本科双一流、211、985学历优先 2、3年以上医疗大型项目需求分析经验,熟悉医院业务系统HIS、EMR、物资管理、财务管理、HRP等; 3、能接受短期出差; 4、熟悉软件开发过程,对主流信息技术有常识性了解; 5. 具备良好的沟通技能,团队合作能力,能有效引导或识别用户需求及价值; 6、熟悉Axure等原型制作工具,能熟练使用原型工具和需求分析工具;