-
职位职责: 团队介绍:BABI平台是通过内部商业化/市场化的方式,以商品化为主要核心手段,围绕IT基础设施和人力成本提供一站式的平台支持,服务公司看清楚各业务部门从预算到成本到收入的经营过程,结合数据化、智能化的方式帮助业务线做好成本经营。 1、负责字节跳动技术团队及火山引擎业务等经营分析系统的大数据研发工作; 2、参与数据治理工作,提升数据易用性及数据质量; 3、搭建整个经营分析体系的数据仓库,提供成本治理或FinOps相关数据产品和工具; 4、负责对应研发团队的项目规划和团队管理。 职位要求: 1、本科及以上学历,计算机相关专业,熟悉大数据相关技术,Kafka/Flink/Spark/Hive/HBase/Clickhouse 等; 2、具备扎实的编程能力,掌握Java、Go、Python等至少一门语言; 3、具备良好的沟通协调能力,对业务和数据敏感,能快速理解业务需求; 4、有IDC经营分析、电商或广告等业务数据工作经验加分。
-
主要职责: 支持市场部的Campaign和数字营销策略,提供关于平台内部流量转化的详尽分析。 理解数据埋点和上报机制,有效处理A/B测试数据。 建立和维护基础事实表和维度表,为上游分析提供稳定的数据模型基础。 与研发和产品团队进行日常沟通,确保数据需求的准确性和实时性。 熟练使用SQL和Python进行数据分析和模型开发。 使用ETL工具优化数据处理流程和数据质量。 任职资格: 熟悉数仓建模方法,具备支持市场部Campaign、数字营销及平台内部转化率分析的相关经验。 了解数据埋点、上报及A/B测试数据处理。 能够独立建立和优化基础事实表和维度表。 精通SQL和Python,有使用ETL工具的经验。 良好的沟通技巧和团队合作能力,能够与技术团队和业务团队有效合作。 强大的分析能力,能够从数据中提取有价值的业务洞察。
-
岗位职责: ● 负责服务于消费者的地标热区的划分,对应推荐语与标签内容的输出; ● 负责服务于消费者的搜筛内容提炼及对应召回酒店list的数据输出; ● 负责服务于广告商家的相关资源配置与问题答疑; ● 负责服务于供应商商家的需求沟通与答疑、系统配置等; ● 负责对业务数据进行追踪与分析,制定运营优化方案; ● 与研发、产品等部门密切合作,推进各平台产品的迭代优化; ● 负责酒店专项的推动,能及时发现问题并提出有效方案,对项目结果负责。 岗位要求*: ● 2年以上销售运营经验,有互联网行业或OTA行业经历者优先; ● 具备良好的业务敏感度、逻辑思维能力及沟通表达能力,能独立分析并解决问题; ● 具有良好的团队协作能力,工作细致有责任心,敢于承担责任,有韧性; ● 熟练掌握常用办公软件。
-
职位职责: 1、负责CDP平台产品相关功能规划和设计,能独立完成市场调研、方案设计以及协调各方资源推动产品上线,对所负责方向的产品竞争力、交付质量、客户满意度和商业收入结果负责; 2、对接外部客户与内部相关合作团队,深度理解客户数据和数据背后的价值,能结合机器学习、数据要素以及大模型(LLM)能力扩展产品能力边界、挖掘新的商业收入增长点,能够从0到1孵化新的解决方案/产品; 3、洞察、提炼客户数据在行业客户业务里的应用场景,规划、落地相关产品能力,提供行业级客户数据平台解决方案,协同技术、运营、交付、售前等团队推进产品在客户业务中的落地应用和客户价值的持续提升。 职位要求: 1、具有5年及以上用户画像平台或精细化运营平台相关实战经验,具备优秀的需求分析和产品架构设计能力; 2、对于产品方向、行业趋势、GTM、市场有判断力,有商业洞察力、能挖掘收入增长方向; 3、有较强的数据洞察与分析能力,面对复杂业务场景,可以结合数据进行有效分析,提供基于业务场景的数据赋能解决方案; 4、具备优秀的沟通和跨团队协调能力,有创业意识,能够有效推进产品迭代与服务保障,为收入结果、项目交付结果负责; 5、优秀的客户服务意识、有同理心,能够耐心、积极主动地服务客户,帮助客户成功。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
离线平台数据开发工程师 (MJ001515)
[深圳·福田区] 19:35发布15k-30k·13薪 经验3-5年 / 本科旅游|出行 / D轮及以上 / 500-2000人岗位职责 1、基于Spark/Hive构建企业级数据仓库及离线处理平台; 2、基于Spark/Trino构建统一的查询服务,支持ETL/AdHoc查询; 3、基于Spark源码完成问题修复及自定义功能开发; 4、参与维护离线调度系统的稳定性及性能优化; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导。 任职要求 1、本科及其以上学历,计算机相关专业; 2、精通Java/Scala语言,熟悉JVM的常用调优及问题定位,追求高标准的工程质量; 3、对Spark/Hive等离线计算框架有深入理解;对Spark源码熟悉优先; 4、熟悉Hadoop、Trino、Kafka、ZK、Elasticsearch、Redis等的工作原理; 5、熟悉常用算法和数据结构,熟悉网络编程、多线程编程技术; 6、逻辑清晰,思维敏捷,思路严谨,能独立分析和解决问题,责任心强,具备良好的团队协作能力; 7、具有较强的学习能力、自我管理能力、敢于挑战。 -
岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
-
岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
-
岗位职责: 1. 负责跟进数据平台、计量引擎的规划、实施、监控和交付,确保项目符合IFRS17标准的要求; 2. 根据业务需求设计数据平台架构,确保数据的准确性、完整性和时效性。 3. 与业务团队紧密合作,准确理解和分析IFRS17标准对数据处理和报告的具体要求。 4. 与技术团队和供应商沟通,确保技术方案的实施符合项目要求。 5. 监控项目进度,管理项目预算和资源,处理项目中出现的技术或资源问题。 6. 协调内部和外部资源,监控项目里程碑和关键绩效指标。 7.定期组织项目会议,更新进度,协调解决方案的调整和优化。 任职资格: 1. 本科及以上学历,计算机科学、软件工程、信息技术、金融、保险等相关专业; 2. 至少具有3年以上数据平台搭建或项目管理经验,有在金融或保险行业从事过相关工作的优先; 3. 具备良好的沟通能力和团队合作精神,能够有效协调各方利益,推动项目进展具备较强的学习能力、分析能力和解决问题的能力; 4. 掌握数据库技术,如SQL,以及大数据技术,如Hadoop或Spark。 5. 熟练使用项目管理软件,如Microsoft Project或类似工具; 6. 具有直接或相关的IFRS17项目经验或对计量标准有深入理解者优先; 7. 英语流利,具备出色的听说能力者优先; 8. 持有PMP类似项目管理专业认证者优先。 9.具有精算工作经验者优先。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
岗位职责: 1. 负责长音频业务数据指标体系建设和维护、核心指标的梳理和监控,数据看板的开发和维护工作; 2. 快速响应数据需求,通过现有的数据产品和提数平台获取数据并输出分析报告; 3. 通过数据专题分析,对业务问题进行深入研究,有效指导运营决策、产品方向。 岗位要求: 1. 三年或以上互联网数据运营或数据分析从业经历,统计、数学、计算机专业等本科以上学历; 2. 具有扎实的统计学、数据分析、数据挖掘基础。熟练掌握HIVE、SQL等相关数据提取工具技能,可熟练通过SQL独立完成相应数据分析需求,熟练掌握至少一种数据分析工具(SPSS、Python、R等),有一定的编程功底; 3. 有丰富的跨团队、部门的项目资源整合能力,能够独立开展项目。
-
岗位职责: 1.用户运营数据分析支撑,通过用户特征、行为数据、产品转化数据等对业务进行挖掘和分析,挖掘数据并进行数据的统计建模分析; 2.通过数据分析找出潜在趋势、特点、异常等,对精细化运营提供支持; 3.结合业务特点,探索并建立分析主题,对数据进行深度分析和挖掘,输出可读性强的分析报告;针对不同产品出具分析报告,支持各产品的数据分析,并提出优化策略; 4.针对产品、数据模型建立直观的评价指标体系,根据指标体系,指导运营和业务; 5.将数据分析成果应用于实践,并持续进行跟踪与优化; 6.制定数据分析的工作流程和规范,协助建立分析平台; 7.根据业务要求,结合实际工作需要,协助挖掘新的数据沉淀机会,并据此产生创新应用价值。 任职要求: 1.**211、985本科及以上学历,计算机或数理统计相关专业毕业; 2.两年及以上数据分析经验。 3.熟练掌握SQL,了解Python、R等,加分项:有算法实际应用并取得成果; 4.具有互联网金融、互联网保险、电商、社交、游戏等平台类运营、用户运营经验或产品运营经验,有互联网金融、互联网保险经验尤佳; 5.具有较为成熟的业务思维能力和业务分析方法论,有较为丰富的数据推动业务的实践经验; 6.使用过Tableau等数据可视化工具。 7.熟悉HIVE数据库,能熟练使用基础Shell命令; 8.具有良好的学习能力、时间管理意识、沟通能力
-
工作职责: 1、根据项目需求制定测试计划,设计测试数据、测试用例、搭建测试环境; 2、根据测试流程独立完成对电力产品系统测试,对产品的软件功能、性能及其它方面的测试,输出测试报告、版本发布; 3、配合开发进行模块级、系统级测试,复现现场问题,并协助开发解决、验证问题。 任职资格: 1、具有3-5年以上年软件及后台linux测试经验,有大数据平台测试经验,具备独立测试能力; 2、熟练使用常用的测试工具,能够独立搭建软硬件测试平台,并评价产品、写出产品的测试报告; 3、熟练掌握linux常用命令、通用的测试方法、WEB前后端交互原理、常用数据库,了解git、jenkins、jira等基本使用方法; 4、了解spark、oss、hive等相关大数据技术及使用方法,有云平台测试经验优先; 5、有国网项目测试经验,了解电力相关知识优先; 6、耐心细致,具备较强的问题分析能力及学习能力,有良好的沟通能力、团队合作精神、积极的工作态度和较强的责任心。
-
岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
-
岗位职责: 1.负责QQ音乐平台用户增长的数据挖掘/分析/机器学习/因果推断模型建设工作; 2.负责海量用户的画像建设,并落地到推荐/增长策略; 3.大数据挖掘分析,独立完成专项分析,为策略迭代提供有效建议,探寻增长机会,建设实验机制持续驱动产品增长计划; 4.与用户增长产品&运营深度配合,将业务需求转化为数据问题,支持并引导业务发展,支持用户增长策略的AB实验,并沉淀方法论。 岗位要求: 1. 精通数据挖掘、机器学习、因果推断、分布式计算等相关技术,两年及以上工作经验; 2. 精通python、SQL编程,熟悉java/Scala等语言; 3. 善于在大数据中挖掘价值,优秀的产品/数据sense,逻辑思维; 4. 熟练掌握spark/hadoop/Hbase/es等大数据计算存储框架; 5. 熟悉用户画像建设,熟悉推荐系统相关机器学习; 6. 良好的团队合作能力,较强的沟通表达能力; 7. 有用户增长相关工作经验者优先。