-
职位职责: 1、负责字节跳动相关产品线(抖音、头条等)风控方向的数据产品开发; 2、负责数据质量,数据安全,元数据的监控,整合; 3、面向超大规模数据问题,每天处理千亿增量的用户数据; 4、设计和实现高并发关键数据服务,用数据衡量产品并驱动产品演进。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 3、熟悉Kafka/Flink/HBase/Doris 等实时计算引擎的开发和使用优先; 4、有大规模实时数据平台落地经验者优先。
-
岗位职责: 1、建设机器学习/深度学习平台,根据实际业务场景和需求,优化平台能力; 2、建设灵活的AI开发组件,支持业务打造定制化AI平台及业务。 岗位要求: 1、计算机及相关专业本科及以上学历,具有扎实的代码功底,熟悉常用的算法和数据结构; 2、精通Java语言,熟悉了解Python语言,具有良好的编程习惯,熟悉多线程编程,内存管理,设计模式和Linux开发环境; 3、熟悉Hadoop/Hive/Spark/Flink等计算框架,熟悉Docker技术及Kubernetes容器调度系统; 4、熟悉业界主流的机器学习平台,有机器学习平台研发经验者优先; 5、有Tensorflow/PyTorch等机器学习框架使用经验者优先; 6、有AutoML、自动特征工程系统设计经验者优先; 7、良好的团队合作和协调沟通能力,学习能力强,自我驱动力强,紧跟机器学习的发展动态。
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
职位职责: 1、负责生活服务业务效率平台等方向大数据应用能力建设,包含数据专题分析、数据服务、数据诊断等; 2、针对业务场景梳理数据信息,提出一站式的数据解决方案; 3、持续的性能优化和架构升级,不断提升团队效率和产品的用户体验。 职位要求: 1、本科及以上学历,有扎实的前端和计算机基础,包括HTML/CSS/JavaScript/DOM/HTTP/数据结构等; 2、对技术充满好奇心,乐于学习,愿意分享,具备良好的服务意识,责任心,团队沟通和协作能力、发现并解决问题的能力; 3、精通至少一门MVVM框架,如AngularJS/Vue/React,使用React开发过项目或者复杂单页面应用者优先; 4、有一定的工程化思维和实践经验,深入掌握工作中常用的工具或技术,例如Grunt/Gulp/Webpack/Babel/Rollup等; 5、加分项:有过数据产品相关开发经验者,有自己的技术产品、开源作品或活跃的开源社区贡献者优先。
-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,参与稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,支持提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.熟悉spark/hive组件原理和应用,精通spark内核相关知识和技术,有较大规模RSS生产实施经验。 3.了解大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有AWS/GCP/阿里云等云平台使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
if (your_passions.includes('BigData')) { switch(your_stacks) { case 'Java': case 'Scala': case 'Python': console.log('Join AfterShip'); break; } } 岗位职责 1、负责 OLAP 引擎(如 ClickHouse、Doris 等)的调研、性能优化、Bug 修复及稳定性保障,推动相关配套工具和系统的建设; 2、深入理解 CDP 和指标平台的数据应用场景,推动客户数据整合、用户画像构建、实时指标计算等核心功能在 OLAP 引擎中的高效落地,确保数据 SLA; 3、负责数据服务应用技术架构的演进,构建统一的查询引擎层和数据服务平台,支持多业务场景的高效数据查询与分析; 4、与数据产品经理、分析师、业务团队紧密合作,理解业务需求并提供技术解决方案,推动数据驱动的业务决策。 岗位要求 1、本科及以上学历,计算机相关专业毕业,三年以上数据开发和数据应用工程架构建设经验,英语读写熟练,有 CDP 或指标平台领域有实际项目经验者优先; 2、深入了解 ClickHouse、Doris、StarRocks 等 OLAP 引擎中的至少一种,具备查询 SQL 调优和源码分析能力,能够解决性能瓶颈和复杂技术问题; 3、具备数据应用工程架构设计与实施经验,能够设计高可用、高性能的数据服务平台,支持客户数据整合、用户画像构建、实时指标计算等核心场景; 4、具备大规模数据应用架构设计经验(如分布式计算、实时数据处理、数据湖仓一体)者优先; 5、熟悉 Apache Calcite、Antlr4 等 SQL 解析与优化框架,有相关实践经验者优先。 加分项 1、对 Headlesss BI / CDP 有一定的了解且有实践应用经验; 2、向社区贡献过 patch 者优先。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
有完整数据类项目需求到落地的项目管理经验; 有快消零售业数据类项目管理经验优先。 Responsibilities: 1、独立负责大数据软件、大数据解决方案、数据洞察类等乙方项目的全流程管理,包括不限于:需求整理、进度跟踪、质量管控、风险预警评估、结项等项目过程管理; 2、负责项目资源的协调与组织,推动跨部门跨产品配合,确保项目团队各干系人协同工作; 3、负责项目实施交付,把控项目整体各阶段的进度,协调多方资源,制定项目计划,跟踪进度,控制总体成本,严守时间节点; 4、建立团队级别的报告,发现和诊断关键项目风险和问题,完成结项后效果跟踪、评估; 5、上级安排的其他工作内容。 Requirements: 1、本科及以上学历,计算机相关专业; 2、具有2年以上的数据类项目需求分析或软件开发项目管理相关经验; 3、熟悉流程管理、项目管理的基本理论、能够熟练操作办公软件、流程管理软件如office,visio,axure、axure、ppt等工具; 4、能够独立完成一个项目的业务需求分析工作,资料的编写; 5、具备较强的口头及书面沟通能力,能够与业务人员、开发人员、测试人员等顺畅交流,能准确说明需求的核心要点; 6、有较强的学习能力和抗压性,具备同时承担多种角色的潜力;
-
1.参与互联网金融、互联网保险、电商、社交、游戏的用户获客业务,协助团队通过数据分析找出潜在趋势、特点、异常等,对精细化运营提供支持; 2.用户运营数据分析支撑,通过用户特征、行为数据、产品转化数据等对业务进行挖掘和分析,挖掘数据并进行数据的统计建模分析; 3.结合业务特点,探索并建立分析主题,对数据进行深度分析和挖掘,输出可读性强的分析报告;针对不同产品出具分析报告,支持各产品的数据分析,并提出优化策略; 4.针对产品、数据模型建立直观的评价指标体系,根据指标体系,指导运营和业务; 5.将数据分析成果应用于实践,并持续进行跟踪与优化; 6.制定数据分析的工作流程和规范,协助建立分析平台; 7.根据业务要求,结合实际工作需要,协助挖掘新的数据沉淀机会,并据此产生创新应用价值。 ### 任职要求: 1.**211、985本科及以上学历,计算机或数理统计相关专业背景,能够持续实习至少3-6个月以上,有意向实习后转正者优先; 2.至少掌握一种编程语言及Linux系统的基本使用,且具有良好的编码规范,熟练使用Python优先; 3.熟悉关系型数据库及相关使用,熟练掌握SQL的使用,了解Hive数据仓库及相关工具使用优先; 4.熟悉各类数理统计工具,具有机器学习与深度学习相关算法经验优先; 5.具有互联网金融、互联网保险、电商、社交、游戏等平台类运营、用户运营经验或产品运营相关实习经验优先; 6.具有良好的学习能力、时间管理意识、沟通能力,工作积极主动、有责任心,有较强的逻辑分析能力;
-
if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Typescript’: case ‘React’: case ‘Node.js’: case ‘micro frontend’: case ‘headless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责大数据平台、数据应用型产品的前端开发,例如商品理解、电商搜索、商品推荐等 SaaS 产品前端交互和功能; 2、负责系统的 SLA 代码维护、迭代更新,保证任务质量和交付及时性; 3、负责编写相关的技术文档、单元测试,对产品质量负责。 岗位要求 1、本科及以上学历,具备英语读写能力; 2、熟悉 Git/GitHub,通信协议 TCP/HTTP 及 RESTful / GraphQL 标准; 3、3 年及以上前端开发经验,熟悉 React, Vue, Angular 等框架,熟练掌握各类打包工具; 4、富有架构思维,能独立完成项目功能设计; 5、熟悉 TypeScript 或其它静态类型语言。 加分项 1、对数据 AI 敏感,有数据应用型产品的前端开发经验; 2、英语可作为工作语言。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。