-
职位职责: 1、为字节跳动抖音、电商等业务线的反爬效果和指标负责,解决业务痛点问题; 2、提升业务风险感知能力,结合具体场景,数据指标,主动发现问题并提出解决方案,对业务风控效果负责; 3、推动智能化产品落地,不断提升平台化能力,提高风控效率; 4、研究新的产品动向和前瞻探索,借鉴业界的新思路持续优化产品策略,使反爬处于行业领先水平。 职位要求: 1、本科及以上学历,责任心强,思维逻辑严谨,对数据敏感; 2、有互联网风控策略制定经验,从事过反爬虫、流量反作弊方向工作; 3、有互联网安全策略管理经验,包括但不限于风险发现、制定模型或策略、推动方案落地; 4、1年以上策略产品或数据分析工作经验;熟练掌握大数据分析工具使用,不限于SQL/PySpark/Flink等; 5、具备攻防思维,熟练掌握常见的反爬虫技术和数据安全风险。
-
职位职责: 1、负责保护公司电商平台的数据安全,防范和打击爬虫及其他恶意行为,研究和掌握最新的反爬虫技术,制定和实施有效的反爬虫策略; 2、深入了解上下游业务形态,可独立发起治理专项,快速定位问题并形成落地策略及效果评估闭环; 3、分析和调查电商平台上的异常流量和可疑活动,从海量设备、行为数据中发掘有价值的信息; 4、可协助进行建模工作,如特征分析、数据可视化呈现等,为团队决策提供数据支持; 5、与产研团队高效合作,优化技术架构和端上安全能力,建立端管云三位一体的反爬体系,量化防控效果,驱动反爬能力的不断提高。 职位要求: 1、计算机、信息安全、统计、数学等相关专业; 2、3年相关反爬相关经验,具备网络安全、数据保护和风险管理方面的专业知识,有电商经验者优先; 3、熟练掌握SQL、Python等编程语言,具有扎实的数据分析能力及学习能力; 4、深入了解常见的爬虫技术和工具,具有丰富的反爬虫经验,熟悉 Web 安全、网络协议、漏洞扫描等相关技术; 5、具有较强的问题解决能力,能够快速分析和处理安全事件,具备良好的团队合作精神和沟通能力。
-
Python数据开发工程师 玖奕私募基金,正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等 3、熟悉Linux环境下开发,熟悉常用的Bash指令 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库 5、熟悉MongoDB等NoSQL数据库 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度 7、自驱、认真负责、技术沟通和技术协作能力强 额外加分 1、有金融行业数据处理经验 2、有容器化(Docker)开发部署经验 3、有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda
-
工作职责: 1、承担数据治理各阶段的相关工作,包括用户调研、分析业务数据需求与数据痛点、设计数据资产目录、数据资产盘点、盘点分析、根因分析、设计方案等; 2、负责客户管理与需求引导,深度把握客户需求,作为项目的核心交付成员,开展数据治理体系规划、数据架构、数据资产、指标体系设计、数据标准制定、数据质量管理等工作; 3、设计公司数据治理各领域的制度、规范、流程并落地推广,建立、发布和维护相应的标准化文档,与产研、产品、算法团队协作推进公司在细分场景的业务模型/指标/数据模型/算法的沉淀; 4、负责数据平台关键模块和技术方案的设计、攻关和优化,把控技术风险,协调、领导团队解决研发、交付过程中的各项技术难题,有效沉淀技术组件、形成技术积累和复用能力; 任职要求: 1、具有本科及以上学历,工作经验3年以上,*****本科及以上学历,计算机、大数据、数据科学等相关专业; 2、具备优秀的大数据需求分析、技术验证、技术方案设计、技术难点攻克能力及良好的项目交付与团队协作能力,能够组织跨团队协作、推动项目落地; 3、精通数据仓库相关理论,有企业级的数据仓库建设经验,有数据治理相关成功经验; 4、熟悉大数据生态相关技术,具备整体架构视角,熟悉数据治理方法论、ETL开发及大数据平台产品和组件,包括但不限于Hive、HBase、Kafka、Flink、ES、Spark等,至少具有1项企业级数据平台和数据中台架构设计管理经验; 5、对批流一体、数据湖等业内前沿方向有深刻理解,有实际团队落地经验者优先; 6、具备良好的沟通表达和业务理解力,能从业务视角看问题,从技术角度解决业务问题;
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
职责描述: 1、协助上级制定客群及业务规划的短、中、长期策略,定期开展专项客群、业务、资产规划等分析。 2、根据客户维护策略制定年度维护计划及服务推广计划,增加收入。 3、持续收集并分析同业经验数据,并根据信息总结对业务的影响及建议。 4、根据市场变化,及时调整重点项目策略,检视部门推广项目进度、运作情况和效果,落实并追踪预算实行情况。 5、负责业务领域核心数据体系的规划设计,并推动数据采集及数据口径规范,搭建数据服务产品,利用可视化工具输出动态仪表盘,赋能业务。 6、通过业务数据分析及时监测业务健康度,并针对异常开展专项深度分析,发现问题并提供合理业务建议。 任职要求: 1、本科或以上学历,数学、统计学、商业分析等相关专业背景; 2、5年以上数据分析工作经验,有信用卡、金融或头部互联网数据分析项目相关经验; 3、具备金融行业或互联网企业前瞻性的整套数据管理、数据服务等解决方案的规划和落地经验尤佳; 4、掌握SQL、以及Python/SAS/R语言(至少一种)的数据分析处理技能; 5、优秀的思维逻辑性、语言表达能力; 6、有一定的市场敏锐度,商业嗅觉敏锐者优先。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
职位描述: 1、通过数据分析、业务预测等方法,搭建业务分析体系,协助制定用户运营策略。 2、协助开展专项客群策略研究(客群分析、行为模式等),为业务挖掘机会提供数据支持。 3、负责相关报表的开发及维护,并根据数据对市场活动、营销策略等进行评估及分析,为产品、运营、渠道等决策提供引导。 4、负责专项业务的分析与预测,KPI指标的制定与分解,建设指标跟踪监控体系,及时反馈业务变化给出分析建议。 岗位要求: 1、 重点大学本科或以上学历优先,金融相关知识优先。 2、 优秀的逻辑数理分析能力,数据敏感。 3、熟悉SQL编程语言。
-
岗位职责: 1.负责QQ音乐平台用户增长的数据挖掘/分析/机器学习/因果推断模型建设工作; 2.负责海量用户的画像建设,并落地到推荐/增长策略; 3.大数据挖掘分析,独立完成专项分析,为策略迭代提供有效建议,探寻增长机会,建设实验机制持续驱动产品增长计划; 4.与用户增长产品&运营深度配合,将业务需求转化为数据问题,支持并引导业务发展,支持用户增长策略的AB实验,并沉淀方法论。 岗位要求: 1. 精通数据挖掘、机器学习、因果推断、分布式计算等相关技术,两年及以上工作经验; 2. 精通python、SQL编程,熟悉java/Scala等语言; 3. 善于在大数据中挖掘价值,优秀的产品/数据sense,逻辑思维; 4. 熟练掌握spark/hadoop/Hbase/es等大数据计算存储框架; 5. 熟悉用户画像建设,熟悉推荐系统相关机器学习; 6. 良好的团队合作能力,较强的沟通表达能力; 7. 有用户增长相关工作经验者优先。
-
数据分析师-用户增长 岗位职责: 1、负责会员后台的产品需求规划,包括商品、订单、营销、用户画像等模块,围绕业务运营需求进行方案设计,有效洞察问题,提升工作流程效率,确保后台系统的可扩展性及易用性; 2、结合业务目标、当前现状及业务需求不断挖掘系统优化点,输出中长期规划及短期解决方案,保障业务快速发展; 任职资格: 1、本科及以上学历,有5年以上后台产品经验,有电商后台、营销后台、CMS相关产品经验优先; 2、逻辑清晰,善于抽象简化问题,系统性思考解决方案; 3、良好的沟通协作能力,目标导向,能够自驱推动问题解决和项目落地。
-
岗位职责: 1、对重要业务线设计指标,监控异常,针对业务痛点设计数据解决方案并推动产品、运营或战略决策、落地; 2、深入理解业务问题,通过细致的数据洞察,可抽象出针对性的策略和算法模型; 3、精通AB实验,了解因果推断方法论。通过设计正确合理的A/B实验来加快产品或策略的迭代,具备深入分析实验结果并给出前瞻性策略指引的能力。 岗位要求: 1、**本科,计算机、统计、数学等专业背景优先;2年以上数据分析工作经验。 2、有数据驱动意识,参与过重要数据决策项目(比如搜索推荐相关业务)的优先; 3、具备扎实的编程基础(Python/SQL等)、大数据平台使用经验(Hive/Spark等)和数据分析(Excel, Tableau,PowerBI等)、数据挖掘工具(Scikit-Learn/Keras/TensorFlow)等类型技能的一种或多种; 4、有将数据转化成可理解和执行的决策(A/B实验,产品方案,运营策略等)能力; 5、良好的团队合作意识和积极主动的owner意识。
-
工作职责 1. 数据面性能测试工具(spate)研发; 2. LR-GW 研发; 3. EP-GW 研发; 4. L4LB-GW 研发。 任职要求 1. 熟悉Linux操作系统下C/C++开发,能运行常见工具定位调试问题代码; 2. 熟悉Linux内核网络协议栈,有内核开发经验; 3. 熟悉路由器/交换机工作原理,熟悉NAT、VPN、负载均衡、SDN、NFV、Overlay等网络技术; 4. 熟悉Openstack/Cloudstack等云平台,有OVS/OVS-DPDK等开发经验者优先; 5. 熟悉DPDK、VPP等,有用户态协议栈开发经验者优先; 6. 良好的沟通与团队协作能力。
-
岗位职责: (1)负责数据清洗、数据分析、数据挖掘、数据服务等; (2)负责与外部门信息交换的技术管理工作; (3)利用技术手段对客户信息进行技术分析和应用服务; (4)运用数据分析建设业务模型,并持续跟踪优化; (5)负责领导交办的其他工作。 任职资格: (1)计算机、数学、统计学等相关专业本科及以上学历,具备扎实的专业基础知识; (2)3年以上数据技术领域工作经验,熟悉大数据平台架构与关键技术; (3)熟练掌握Hadoop、Spark、Kafka等大数据处理框架,具备丰富的实战经验; (4)具备良好的数据建模、数据挖掘与数据分析能力,能够运用SQL、Python等语言进行数据处理与分析; (5)熟悉数据仓库、数据湖等数据存储技术,具备数据治理与数据安全方面的经验; (6)具备良好的团队协作与沟通能力,能够适应快节奏的工作环境,具备较强的抗压能力; (7)对新技术充满热情,具备较强的学习能力和创新意识。
-
岗位职责: 1、使用建模工具进行信用模型及反欺诈模型开发,包括数据准备、建模及数据分析、模型的选取与优化、模型验证等工作; 2、对海量业务数据进行分析,深度挖掘内部数据,构建风控指标体系并具备开发特征库及解释相应衍生变量、规则的能力; 3、熟悉风控审批、额度、定价策略的制定方法及相应建模流程; 4、针对不同金融机构和业务给出相应的风控建模方案,向客户进行阐释并参与实施; 5、针对客户痛点进行业务引导并提供技术支持; 6、具备探索新业务场景的能力与热情,对于知识与技术向新场景迁移和应用有独立的见解。 岗位要求: 1、四年以上相关领域工作经验,统计、数学、计算机、金融工程等相关专业硕士及以上学历; 2、至少能熟练运用SAS/R/Python中的一种进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 3、掌握逻辑回归、决策树、机器学习等建模方法,了解算法的原理; 4、拥有银行/互金/消金等金融机构数据分析、策略开发以及建模工作经验者优先; 5、具备独立思考能力,逻辑严谨,对数据敏感,善于发现、探索并解决问题,自我驱动力强; 6、有较强的责任心及抗压能力。
-
职位职责: 团队介绍:我们是「豆包视频生成模型-PixelDance」团队,我们专注于开发视频生成模型,解决视频生成的关键问题,包括但不限于高动态性视频生成、内容一致性保障。构建行业领先的视频基础模型,引领技术的未来潮流。视频生成工程团队的工作涉及到模型生产的全周期流程,在这里,你有机会参与到模型的数据生产、训练加速、推理加速、服务部署的每个环节。同时你将接触到最先进的视频生成技术、海量的数据、大规模的集群,我们期待你能够和我们的模型一同Scale UP。 1、视频处理端到端性能优化:负责视频数据处理的性能提升,包括但不限于视频编解码优化、蒸馏、量化、Kernel优化;对异构资源进行合理分配和优化,充分利用各类硬件资源提升视频数据处理能力,提高资源利用率以应对海量视频数据的挑战; 2、数据层处理平台化建设:参与视频数据处理平台的设计与建设,制定平台的技术架构和发展规划;持续优化平台功能,确保平台的稳定性、可靠性和可扩展性,满足不断增长的业务需求; 3、视频数据生产管理:统筹视频数据的采集、整理、存储等生产环节,建立高效的数据生产流程;确保视频数据的质量和准确性,对数据进行严格的审核和校验; 4、算法优化与创新:不断探索和研究新的视频数据处理算法和技术,对现有算法进行优化和改进;结合人工智能、机器学习等先进技术,提升视频数据的分析和处理能力,为业务提供更有价值的洞察。 职位要求: 1、计算机及相关专业,本科及以上学历,良好的沟通和团队协作能力; 2、精通Python或Golang等至少一种编程语言; 3、熟练使用GPU或NPU高性能编程技术为模型训练或推理加速,例如:CUDA、CUDNN、CUTLASS、Triton等; 4、熟练使用开源推理加速工具为模型加速,例如:TensorRT-LLM、vLLM、TVM、torch.compile等,并深入理解背后原理; 5、具备以下一个或多个能力者优先: 1)具有数据处理相关经验,熟悉图像或视频数据处理方法,了解CV、VLM和Diffusion Model相关算法; 2) 熟悉大数据分布式处理框架Spark、Flink、Hadoop、Ray者优先; 3)熟练使用DALI、OpenCV、FFmpeg等图像处理工具。