-
岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开发数据采集、清洗、分析、挖掘及可视化功能,需熟悉ES、milvus、pgsql等。 3.熟悉国产数据库,包括doris等; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.***本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.有信控平台开发经验者优先录取。
-
职位职责: 1、负责电商指标体系建设:梳理并构建影响整体电商流量和收入的指标体系,规划与设计业务指标维护和数据报表,为业务及管理层提供决策支持,实现流量业务的数据产品化; 2、实验:通过AB测试进行深入的归因分析,并对实验迭代提出方向性建议,帮助实验迭代和业务发展; 3、深度参与电商流量核心业务环节:通过回归、预测、优化等建模方法,挖掘用户行为规律,抽象出可上线的特征、模型,以优化业务目标,给出商业建议,挖掘算法驱动业务的增长点,并推动产品和技术落地; 4、方法论沉淀和创新:组织相关团队进行数据产品理念、技能、工具的培训,推动业务部门数据化运营。 职位要求: 1、本科及以上学历,3年以上数据分析、挖掘、建模工作经验,具备电商搜索,推荐,广告数据经验者优先,计算机,统计学,数学专业优先,具有机器学习算法基础者加分; 2、具备构建数据指标体系知识框架,曾有过构建指标体系经验;掌握基本数据分析方法,对数据落地到业务有一定经验,有专业的分析报告撰写能力; 3、对特征工程、用户行为建模等有相对丰富的经验,能够基于实际的业务场景,抽象问题为具体的模型,最终提供数据驱动的产品和见解,并影响产品和业务决策的跟踪记录; 4、有使用SQL、R,Python等数据分析经验,有建模经验择优; 5、对数据科学有热情,具有主人翁精神,沟通表达能力优、抗压能力强、协调推动能力强。
-
岗位职责: 1、参与产品功能迭代实验、ABT实验效果回收、异动归因、因果推断等; 2、熟悉推荐/搜索业务链路,能够构建链路中的数据体系; 3、参与推荐/搜索的策略分析,探索增长点赋能业务增长; 4、了解埋点,业务日常数据需求支持,数据提取、报表配置等。 岗位要求: 1、3-5年,本科及以上学历,有数学、统计相关专业或数据分析经验优先; 2、熟悉常见的数据分析方法,SQL能力较强; 3、熟悉tableau配置; 4、较强的学习能力、沟通表达能力、理解能力及洞察能力; 5、熟悉AB tesing基本原理和方法,能够用AB testing帮助业务判断策略有效性。
-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
职位职责: 1、面向字节跳动抖音电商团队,用数据分析和建模的手段推动电商业务的增长; 2、帮助业务团队通过科学的指标体系定义和探索性的数据分析,准确描述业务现状,快速发现问题、定位问题与机会;针对实际业务问题形成专题分析,给出具体解决方案并推动产品策略有效落地; 3、关注行业动态和客户诉求,深入洞察业务增长点,探索长期业务发展方向,用数据辅助业务决策。 职位要求: 1、计算机、统计学、数学、经济学等相关专业,具有相关领域较深入的技术应用的经验和能力; 2、具备国内外公司或行业数据科学经验,电商相关背景优先。 3、熟练使用SQL/Hive等数据库语言,熟悉Python或者R等数据处理语言,熟悉常用数据统计和分析方法; 4、卓越的沟通能力、团队合作精神、工作规划能力和主动意识; 5、优秀的逻辑思维能力、业务解读能力和快速学习能力,能够独立领导完整的数据分析项目。
-
18k-28k·15薪 经验1-3年 / 本科科技金融,人工智能服务 / 上市公司 / 500-2000人主要职责: 1.参与规划、设计、落地公司内部整体风控平台,包括但不限于特征平台、规则引擎、决策引擎、风险处置等模块; 2.与算法团队、产品团队和工程团队紧密协作,统筹资源确保风控策略的准确、高效执行; 3.日常风控数据分析工作,模型、特征上线及管理工作,并能够基于此梳理风控引擎及相关平台优化方案; 4.了解决策式AI在金融场景中的应用,了解利用统计学习和机器学习方法,分析和预测信贷用户违约风险并制定数据驱动的风控审批策略的基本流程和相应的业务及系统改造需求; 5.参与金融风控相关产品的需求分析、设计、开发与优化,承载互联网信贷风控模式和信贷全流程决策; 任职要求: 1.本科及以上学历,2年以上互联网信贷风控产品经验; 2.熟练掌握统计分析软件(如SQL、Python等),具备良好的编程能力。 3.熟悉互联网信贷业务流程,对风控决策引擎和反欺诈系统等深刻认知,具备风控系统架构设计和功能开发能力,了解相关法规和标准; 4.深入了解信贷业务,对行业监管、行业动向和技术有深刻理解,有参与设计或迭代风控决策引擎经验优先; 5.具备良好的团队合作精神,有较强的抗压能力。
-
岗位职责: 1. 负责铃声、分享、视频业务数据指标体系建设和维护、核心指标的梳理和监控,数据看板的开发和维护工作; 2. 快速响应数据需求,通过现有的数据产品和提数平台获取数据并输出分析报告; 3. 通过数据专题分析,对业务问题进行深入研究,有效指导运营决策、产品方向。 岗位要求: 1. 三年或以上互联网数据运营或数据分析从业经历,统计、数学、计算机专业等本科以上学历; 2. 具有扎实的统计学、数据分析、数据挖掘基础。熟练掌握HIVE、SQL等相关数据提取工具技能,可熟练通过SQL独立完成相应数据分析需求,熟练掌握至少一种数据分析工具(Scala、Python等),有一定的编程功底; 3. 有丰富的跨团队、部门的项目资源整合能力,能够独立开展项目。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
-
美团核心本地商业-下沉市场发展部于2015年成立,通过招募优质的合作商伙伴并对其业务经营能力、组织能力等赋能,以期为下沉城市提供一站式的本地生活服务。 下沉市场发展部的业务场景涵盖了外卖餐饮、团购、拼好饭、闪购、医药等多元化的生活服务领域,同时搭建了一套稳定、高效的即时配送网络,为更多本地用户提供品质化、多样化、便捷高效的生活服务体验,为当地商户提供数字化发展机遇、提升数字化水平,为社会创造更多的就地就业机会。 截至2024年6月,下沉市场发展部已开拓全国4000+县区市,帮助百万商户实现本地生活服务数字化,日订单量突破千万,为数十万名骑手提供就业岗位,让本地生活服务逐渐成长为地方新基建,实现美团“帮助大家吃得更好,生活更好”的使命! 岗位职责 1、站内、站外流量拓展,基于业务特性与发展阶段,打通线上、线下大流量入口,实现可控流量增长。包括线下推广、分销、站内资源位运营等; 2、流量高效分发,整合内外部流量资源,基于不同项目、场景的流量需求,提供流量解决方案,并推进落地; 3、基于用户需求理解与洞察,挖掘增长机会,优化产品体验; 4、关注行业信息,挖掘市面新热点、新玩法,及时调整运营策略,保持竞争优势。 岗位基本需求 1、5年以上大型互联网公司流量运营、用户增长经验,有大型项目流量增长经验者优先; 2、具备优秀的数据分析能力,熟练使用sql等分析工具和数据分析方法; 3、优秀的沟通和协同能力,具备强烈的责任心和团队合作精神,能够有效协调跨部门资源,推动项目成功落地; 4、对互联网产品运营有深入理解,对行业发展趋势有敏锐的洞察力。 岗位亮点 1.重点业务核心项目,有充分的独当一面的策略制定和产品运营的职责空间,岗位具备高成长性; 2.团队氛围好,鼓励交流和分享,信息开放透明;
-
岗位职责 1. 参与数据治理规划,制定详细的治理专项计划与实施方案,负责数据治理专项的整体推动; 2. 负责制定数据管理相关政策、制度、流程的方案,并推进实施落地; 3. 负责数据治理解决方案规划及实施,包括数据治理体系、数据架构与标准、数据质量、元数据管理、数据湖、数据主题联接、数据服务、数据分析和数据安全等方面的工作; 4. 分析数据现状,总结数据业务问题,并提出合理的解决方案。梳理数据资产(如数据目录、指标维度体系、标签体系、主数据等); 5. 研究与引入业界优秀的理论体系、解决方案、工具装备等。 任职要求 1. 本科及以上学历,数学、计算机或统计学专业,5年及以上数据管理相关工作经验,有制造行业数据相关背景优先; 2. 熟悉数据管理和数据治理相关理论与方法,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法; 3. 熟悉数据项目开发流程,能和设计人员、数据开发人员、运营人员紧密配合,协调和推进各方面工作; 4. 熟悉业界先进的数据治理相关产品和软件,了解数据湖、Hadoop、Spark、数仓、BI等平台和工具的优先; 5. 有良好的的沟通能力、逻辑思维能力和推动力; 6. 对DAMA、数据成熟度评估等方法论有较深刻的理解,有CDMP,CDGA、CDGP等数据治理证书优先。
-
岗位职责: 1. 针对海量数据开发包括不局限于营销响应、流失预警等营销模型及反欺诈评分、信用评分、额度模型、行为评分、催收评分等风险模型; 2. 跟进实施以量化分析为基础的咨询项目,项目业务围绕信贷、财富等金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3. 熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4. 对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 岗位要求: 1. 本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2. 3年及以上互联网/信贷/金融科技机构模型开发/算法/量化策略相关工作经验; 3. 熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4. 了解LR/RF/XGB/LGBM等机器学习算法的原理及其应用; 5. 对金融产品/客户全生命周期运营/风险管理有深刻理解者优先; 6. 表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 7. 具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
岗位诱惑:出海文化 技术大咖 氛围nice 八险一金 餐食下午茶 工作职责: 1. 参与面向未来的全业务数据系统的运营建设,参与业务/产品关键指标体系,协助优化数据产出要求和规则; 2. 参与项目异常变化原因分析,参与优化迭代可视化数据分析产品; 3. 提炼数据驱动业务增长的逻辑,辅助产品迭代与业务增长; 4. 参与团队成熟策略与方法论的沉淀,提高部门效率; 5. 应用AI技术,参与挖掘业务目标与数据之间的潜在关联,辅助业务部门降本增效。 职位要求: 1. 2年以上数据分析相关工作经验;计算机等相关专业; 2. 熟练使用SQL、PowerBI / Tableau / LookerStudio等数据分析工具,了解Airflow等数据流程编排系统; 3. 具备数据分析领域知识; 4. 对游戏行业有热情,从事过游戏行业数据分析工作优先; 5. 良好的数据敏感度,逻辑清晰,沟通理解能力强,有主动意识,自驱力强,有较为清晰的人生规划和职业规划。 [在Castbox你可以得到]: 薪水:高薪高股,一定不会亏待了你; 成长:硅谷文化,在这里你可以和行业最资深的带头人取经; 环境:技术氛围浓厚,这里有极客们所向往和沉醉的开发环境; 福利: Mac办公 租房补贴 八险一金 餐食、下午茶和各种零食饮料不间断 生日会、肩颈按摩、羽毛球、足球赛、篮球赛 英语角和各种TeamBuilding
-
【工作内容】 1、负责流量渠道(API、信息流、应用商店、短信等)投放数据及业务数据分析,产出优化策略,提升各环节转化、流量质量,低获客成本,提升ROI; 2、负责以商业分析角度,寻找新客业务的提升点,设计并主导各项测试方案,推动并协同获客团队、风控团队、运营团队解决业务痛点; 3、负责建立及优化具备新客业务针对性的分析方法,独立完成归因、回归等分析项目,产出分析报告; 4、负责建立和完善日常运营所需分析宽表,搭建和优化数据指标体系及部门级BI体系。 【任职资格】 1、本科及以上学历,金融、经济学、统计学相关专业,硕士优先; 2、2年以上商业/运营/用户增长等分析工作经验,有头部互联网金融企业工作经验优先; 3、熟练使用SQL、Excel、PPT; 4、具备较高的数据逻辑及数据敏感性,有较强的数据及用户行为分析能力; 5、有强烈的好奇心和学习欲望,有强烈的责任感,有良好的沟通、推动及协作能力。
-
主要职责: 1. 承担大数据平台日常数据开发、运维工作; 2. 承担ODS ETL相关工作,主要包含数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 参与数据治理工作,保障数据质量; 4. 承担相关报表的数据准备,利用BI工具开发相关业务报表; 5. 完成部门布置的其他与数据相关任务。 招聘要求: 1. ***大学本科及以上学历,计算机或数学相关专业,3-5年与数据相关工作经验; 2. 熟悉大数据主流开发框架:Hive、Hadoop、Flink、Sqoop等常用组件的使用,具备性能调优经验者优先; 3. 熟悉数据仓库使用及优化,深入了解数据仓库体系及实施,有实际支撑业务场景经验; 4. 数量掌握SQL、Python等编程语言,具备Java实际项目经验者优先; 5. 善于沟通,对数据具有一定敏感度,能快速理解业务背景,能承担工作压力,具备良好的适应能力。
-
岗位职责: 1、研究、设计和实现更合理的科学实验方法,包括但不限于ABTest、Causal Impact、工具变量法、时间片轮转等,在增长、产品、搜索、推荐、游戏等丰富场景中试点和推广。 2、建立并优化科学实验机制,和产研一起推动实验平台的升级。 3、参与重大项目的实验设计和效果评估,支撑科学决策。 岗位基本要求: 1、统计学、数学、心理学、医学、计量经济学等统计课程较多的专业,硕士以上背景。 2、熟悉实验全流程的关键点,并参与过重大项目的复杂实验设计。 3、能流利阅读英文学术文献,并能熟练使用python/R来实现统计公式、因果模型。 4、能够使用简洁的语言,清晰的表达问题和观点。 5、如果在互联网多业务场景下有丰富实践经验更佳。