-
岗位职责: (1)负责兴业银行大数据应用服务的研发工作,进行数据服务方案设计、开发及上线后运营维护; (2)根据应用情况和研究情况进行提炼优化,形成稳定可复用的数据服务产品。 岗位要求: (1)精通Python/Scala/Java等至少一种编程语言,能够针对大数据环境进行高效编程; (2)熟练使用Hadoop生态体系中的核心组件,能够进行集群部署、配置和优化;掌握Mapreduce、Spark批处理框架;掌握Storm/Flink/Spark Streaming等至少一个流处理框架,能够实现实时或准实时数据流处理。 工作地点:上海
-
职位职责: 1、负责字节跳动国际支付的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责: 1. 开发指标归因分析平台 2、AI大模型在各工具业务的应用场景适配等,负责基于大模型面向应用场景的算法策略组件建设 3、负责LLM、深度学习、机器学习等方向相关问题研究,跟进前沿技术动态 任职要求: 1. 计算机、通信、电子及相关专业,硕士及以上学历,3-5年工作经验 2. 熟练掌握Python语言,熟悉Tensorflow、Pytorch、Spark、Hive等技术栈 3. 具备深厚的NLP基础和前沿跟踪能力,具备大模型落地实战经验优先 4. 掌握NLP基本算法,在自然语言处理相关领域中至少一个方向有一定的实践经验,如语义检索与推荐、信息抽取、对话系统、语义理解、阅读理解、聚类、迁移学习、多模学习、低资源学习等熟悉LLM相关技术, 如transformer, prompt tuning, RLHF, langchain等,对相关技术落地有自己的理解 5. 在机器学习/NLP领域高级学术会议发表过高质量文章者 6. 有银行间债券、银行核心经营指标相关研发经验者优先
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
美团骑行事业部在全国各个城市开展美团单车、电单车业务,提供绿色、便捷的共享出行服务,是美团出行板块重要的组成部分。我们力求为城市可持续发展提供低碳智能的解决方案,通过技术创新和硬件升级,不断优化全流程骑行体验,为低碳出行提供更好的服务。其中,美团单车旨在为城市居民提供通勤接驳服务,满足用户短途接驳出行需求;美团电单车则满足用户中短途多场景低碳出行需求。 我们有开放的工作氛围,也有充满韧劲和创造力,心系低碳出行的伙伴。加入我们,一起为用户创造更好的出行体验。 岗位职责 1. 负责美团骑行业务数据仓库的建模和ETL开发工作,为单车和电单车精细化运营提供数据支持 2. 提高数据时效性,优化数据生产链路,参与骑行实时数仓建设工作 3. 持续数据治理,以完善骑行数据资产管控能力,提升数据质量,降低数据成本 4. 深入理解业务逻辑,探索数据应用,让数据赋能业务; 岗位基本需求 1. 计算机相关专业本科及以上学历,3年以上数据仓库相关经验 2. 熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构,精通3NF和多维数据模型设计 3. 具备大型数据仓库架构设计、模型设计、ETL设计的相关经验,具备海量数据处理、性能调优经验 4. 熟悉大数据相关计算开源框架及组件,包括但不限于Spark、Flink、Hive、Hadoop、Doris等; 5. 具备较强的业务理解能力和团队协作沟通能力 具备以下者优先 1. 海量数据数仓建模经验; 2. 实时数仓建设经验; 岗位亮点 1. PB级数据规模,日订单千万量级 2. 业务场景复杂度高挑战大,实践先进的数仓建设方法论
-
岗位职责: AB实验平台建设,包括分流逻辑、SDK、实验配置系统、指标看板等 岗位要求: -计算机及相关专业本科及以上学历,具有扎实的代码功底,熟悉常用的算法和数据结构 -精通Java语言和框架,熟悉了解Python语言,具有良好的编程习惯,熟悉Linux开发环境,掌握设计模式 -掌握多线程及高性能的设计编码及性能调优,有高并发应用开发经验,对服务治理体系有充分的理解和应用 -熟悉Hadoop/Hive/HBase/Spark/Flink/ES等计算框架,熟悉Docker技术及Kubernetes容器调度系统 -具备AB实验后台开发经验者优先; -具备一定的架构能力,有大容量、高性能、分布式系统的设计开发经验优先;
-
岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
职位职责: 1、负责字节跳动各业务直播数据的汇聚与接入; 2、负责直播数据平台数据链路建设和数据开发规范建设; 3、建设数据质量体系,形成完整的数据监控和数据校验机制; 4、负责直播相关数据需求的开发,能独立设计方案、把控需求、拆解细化并实施。 职位要求: 1、熟练运用Python、Java、Scala、Go等至少一门语言,对数据结构和算法设计有较为深刻的理解; 2、熟悉MySQL/postgresql/MariaDB等至少一类数据库,熟悉常见的NoSQL存储; 3、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想; 4、丰富的大数据技术经验,熟练掌控至少2种大数据技术,包括不限于Hadoop、HBase、Spark、Kafka、Storm、Flink等; 5、具有良好服务意识与数据sence,团队意识和协作精神; 6、较强的内外沟通能力,有数仓开发经验者优先。
-
工作职责 1. 负责微博搜索部门相关产品的日志数据的统计和分析以及报表开发,为产品和业务决策等提供数据支持; 2. 负责搜索业务的用户分析、需求分析、效果分析,进行策略分析和调研; 3. 负责围绕用户增长方向进行数据分析和调研,并推进策略上线,提升用户规模; 4. 负责搜索业务的日志清洗和数据规则维护,和相关部门合作对统计数据中的问题进行跟踪、调查和解决; 任职条件 1. 熟练使用hsql语言对数据进行统计和分析,有实际工作经验; 2. 熟悉使用hive、hadoop(mapreduce开发)、spark、mysql、BI工具等常用的数据处理平台和工具; 3. 熟悉python、shell脚本开发语言; 4. 对于产品部门的数据统计分析需求能够很好的进行理解、开发、校验、分析; 5. 对数据敏感,能够独立设计分析方案,进行业务分析,产出分析报告; 6. 责任心强,业务理解能力强,对数据分析有自己的理解,能够和相关业务部门的同事很好合作;
-
工作职责: 1. 使用大数据处理架构、机器学习模型进行海量数据挖掘,筛选高质量数据用于大语言模型训练; 2. 开发基于Hive、Spark、Slurm、K8s的大数据文本处理工具; 3. 负责大语言模型的量化,提升推理效率和稳定性。 任职资格: 1. 计算机、数学、统计、NLP等相关专业硕士及以上学历; 2. 有大数据处理、数据挖掘、NLP等相关项目两年以上工作经验; 3. 熟悉常用NLP算法,如GPT、BERT、FastText等; 4. 精通Linux、Hive、Spark、K8s,熟练使用Pytorch; 5. 具备扎实的专业基础和项目经验,良好的沟通能力和团队合作,认真负责、主动积极。
-
1. 设计、开发和持续优化广告投放算法,以显著提高广告精准度和转化效率。 2. 紧跟市场趋势和业务需求,对广告算法进行定期更新和改进。 3. 主导广告数据的深度分析和挖掘工作,确保算法优化的数据驱动。 4. 开发适应不同场景的智能出价产品,满足广告主的多元化需求。 任职要求: 1. 3年及以上算法开发经验,优秀应届毕业生亦可。计算机科学、数学、统计学或相关专业背景; 2. 熟练使用Hadoop、Spark、Pandas等数据处理工具,有AWS或GCP平台的大数据处理经验者优先; 3. 精通C++/Python编程,具备扎实的算法工程化能力; 4. 熟练使用TensorFlow/PyTorch等机器学习框架,有搜索/推荐/广告算法模型开发经验者优先; 5. 具备出色的学习能力、分析问题和解决问题的能力,优秀的团队合作精神,具有创新意识和挑战精神,逻辑思维清晰,责任心强。
-
岗位职责: 1.针对海量数据开发包括不局限于金融行业财富业务营销响应、流失预警等营销模型; 2.跟进实施以量化分析为基础的咨询项目,项目业务围绕财富金融业务领域,实施内容包括不局限于流程设计、业务框架设计、特征设计、模型开发、策略制定、实施部署等; 3.熟悉公司所提供的解决方案,配合商务对机构进行方案介绍与答疑;通过量化分析工具为合作机构提供决策分析报告,配合商务有效推动机构合作与落地应用; 4.对海量内部底层数据进行清洗和深度挖掘,探索有效稳定的维度/变量/模型/标签以形成标准化的产品; 任职要求: 1.本科及以上学历,211/985院校毕业优先,数学、统计学、计算机等相关专业优先; 2.具备互联网/财富营销/金融科技机构模型开发/算法/量化策略相关实习经验; 3.熟练运用Python/R进行数据分析或建模,熟练掌握数据库操作(如SQL语句); 4.了解 LR/RF/XGB/LGBM/FM 等机器学习算法的原理及其应用; 5.了解 Hadoop、Hive、Spark 的常用功能; 6.了解推荐算法中召回、排序阶段的常用模型和策略; 7.有金融行业背景、对金融行业财富营销业务有深刻理解者优先; 8.表达清晰,逻辑严谨,对数据敏感,敢于创新,善于发现、探索并解决问题; 9.具备较强独立思考能力、学习能力、自我驱动力、责任心及抗压能力;
-
技术支持工程师-长沙 (MJ000801)
[长沙·岳麓区] 17:35发布13k-20k 经验3-5年 / 本科工具类产品,软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人【岗位1】 岗位职责 1、负责支付宝开放产品/行业方案的技术支持、技术咨询等工作; 2、对一线技术支持升级的疑难问题进行兜底,对客户问题的最终解决负责,提高客户接入效率; 3、从客户咨询数据中敏锐地发现优化机会,并进行深入分析,为产品优化提供数据支撑和行动建议; 4、不断提升问题解决效率,包括但不限于通过智能服务、文档、排查工具等方式,提高客户问题自助解决和排查效率; 岗位要求 1、计算机相关专业本科及以上学历,2年以上Java/小程序研发或者技术支持经验; 2、Java基础扎实,熟悉Java虚拟机原理、Java高级特性和类库、Java网络与服务器编程、Java多线程编程以及常见开源产品,同时具备一定前端技术背景优先考虑; 3、有良好的信息总结归纳能力,及技术文档撰写能力; 4、责任心强,具备客户服务意识,善于团队协作,有良好的思维逻辑性、语言表达能力; 5、业内各大开放平台从事研发支持工作背或有较长实际集成经验优先考虑; 【岗位2】 我们团队主要负责蚂蚁国际钱包科技售后技术支持服务,在这里你可以学习到最前沿的电子支付技术架构以及产品。 我们主要业务方向是将国内成熟的移动支付的技术服务到海外不同的国家和地区,为当地用户带来移动支付的便利。 包括东南亚 印尼Dana, 马来TNGD,菲律宾GCash,韩国Kakaopav. 印度Paytm,南非Vodapay 岗位职责 1、负责对蚂蚁金服国际的本地合作伙伴提供微服务的售后支持,及平台组件的相关咨询支持服务 2、带领团队负责对蚂蚁金服国际的本地合作伙伴提供技术赋能后的技术支持咨询服务和合作伙伴的关系管理; 3、能够带领团队建立紧急事件响应体系及时响应和高效处理本地合作伙伴的紧急重要业务事件,确保本地合作伙伴关键业务系统稳定 健康的运行在蚂蚁技术平台上; 4、在通过和本地合作伙伴的工作中,可以捕捉,识别对合作伙伴重要的的技术产品资源和流程需求,协调蚂蚁金服内部相关团队有 效支持和赋能本地合作伙伴; 5、能够通过远程服务的方式,定位分析技术服务请求,快速解决问题,并提供让本地合作伙伴 信服的技术支持服务和服务体验。 岗位要求 1.掌握Linux操作系统的配置,管理及优化,能够独立排查及解决系统层的各类问题;熟悉容器的使用以及运维 2.了解Hadoop/HBase/Hive/Spark/Katka/Zookeeper/ELK等开源项目的安装与调试,升级扩容和优化; 3. 至少熟练掌握 Java/Shel/SQL脚本语言; -
数据研发岗: 岗位职责: 1、负责业务需求承接和相关数据及报表研发工作; 2、承接业务需求,按照业务要求,按质按量完成需求交付,沉淀数据资产; 3、可独立完成需求拆解,数据模型设计,数据研发和开发及测试工作。 岗位要求: 1、计算机相关专业本科以上学历。 2、1年以上工作经验。 3、熟悉主流分布式计算工具,hadoop, spark, hbase等,精通SQL开发,熟悉MapReduce原理; 4、有一定的数据仓库开发经验,对各类数据模型设计方法有比较全面和深入的了解。 5、掌握java/python编程中的至少一种; 6、具备较好的数据抽象能力和主观能动性,能够从实际问题出发,提出数据解决方案并跟进方案落地;
热门职位