-
岗位职责: 1、建设机器学习/深度学习平台,根据实际业务场景和需求,优化平台能力; 2、建设灵活的AI开发组件,支持业务打造定制化AI平台及业务。 岗位要求: 1、计算机及相关专业本科及以上学历,具有扎实的代码功底,熟悉常用的算法和数据结构; 2、精通Java语言,熟悉了解Python语言,具有良好的编程习惯,熟悉多线程编程,内存管理,设计模式和Linux开发环境; 3、熟悉Hadoop/Hive/Spark/Flink等计算框架,熟悉Docker技术及Kubernetes容器调度系统; 4、熟悉业界主流的机器学习平台,有机器学习平台研发经验者优先; 5、有Tensorflow/PyTorch等机器学习框架使用经验者优先; 6、有AutoML、自动特征工程系统设计经验者优先; 7、良好的团队合作和协调沟通能力,学习能力强,自我驱动力强,紧跟机器学习的发展动态。
-
职位职责: 飞书企业应用专注于泛财务领域。我们致力于建设基于大数据,搭建智能化、业财一体的财务中台,为互联网生态业务提供合规可控、效能卓越、业务洞察强的平台化能力,让经营者看清现状、预见未来。以技术中台的形式支撑财务税务,提供一站式产品能力,包括应收应付、发票、计税、付款,以及海量数据的清算、核算、报表、风控、分析。 欢迎对技术有孜孜追求的你,加入我们,一起探索和研究互联网时代的企业应用产品! 1、负责财务数据全链路质量保障和治理,包括但不限于数据同步、数据加工(离线+实时)、数据资产化(指标、标签等)、数据业务支撑(财报、管报、应用服务数据等); 2、负责数据类产品的质量保障方案设计及执行落地; 3、通过数据资产审计、制定准入准出机制、设计及执行数据校验核对、资产巡检、变更防控、仿真预演、监控应急等方式保障数据资产及数据产品的质量; 4、通过测试流程标准、方法和技术创新、自动化工具化等方式提升业务数据资产质量、数据产品质量、研测效率; 5、不断探究和建设一流的大数据领域技术风险保障体系和技术风险保障平台。 职位要求: 1、数据或数据产品相关的开发或测试4年以上经验,对数据仓库、数据挖掘、数据平台、数据引擎领域知识有较好储备; 2、熟练掌握一门或多门编程语言,如Java、SQL、Python、go等;有测试框架或质量平台开发经验、大型项目开发编码经验者优先; 3、熟悉数据仓库模型设计、ETL开发,维度建模设计方法,具备海量数据处理经验者优先;具备数据研发平台、数据服务等数据产品开发测试经验者优先;具备分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术者优先; 4、具备大型项目的整体质量保障经验者优先;具备性能、异常、稳定性、用例自动生成等专业测试领域经验者优先; 5、具备较强的逻辑思维能力,谈判能力和冲突管理能力;良好的沟通能力和团队协作能力;快速适应变化、结果导向、追求上进。
-
一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
工作职责: 1、构建高效、稳定的移动应用架构,确保应用性能和用户体验; 2、集成前沿的人脸识别和OCR技术,增强应用的安全性和用户互动性; 3、支持AI框架的模型量化和压缩,实现算法的高效部署; 4、设计算子编程模型,实现自动调优,提升开发效率; 5、与跨职能团队紧密合作,确保产品功能的实现和持续优化; 6、关注并采纳最新的移动开发技术,不断改进产品功能。 任职要求: 1、计算机科学或相关领域的硕士及以上学历; 2、具备人脸识别和OCR图像技术的实际开发经验; 3.以下满足其中一项者优先考虑: 1)至少3年iOS/安卓系统的移动应用开发经验; 2)深入理解图编译原理,熟悉AI框架的核心技术流程; 3)精通C/C++编程,熟练使用Python; 4)精通iOS(Swift/Objective-C)或者安卓(Java/Kotlin)开发技术。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
【工作职责】1、负责数据智能创新应用系统的架构方案设计、评估及实现;2、负责系统(项目)研发管理、任务分配,带领团队攻坚克难,分析并解决软件开发过程中的问题;3、与项目经理、产品经理协作,保证项目的交付质量和时效,对项目研发结果负责【任职要求】1、本科及以上学历,6年以上Java开发经验;2、精通Java技术栈,对JVM原理有深入了解,关注系统性能和安全,熟悉服务器性能优化,掌握RPC、SpringCloud、MySQL、Redis、Kafka、Zookeeper、MQ等框架和中间件,了解Docker,K8s等容器化技术;3、有数据数据类或平台类应用研发和实际产品落地经验,具备数据中台相关项目经验,主导或参与过大型应用系统的架构设计,熟悉大数据量下的系统架构技术方案,具备代码调优、系统重构经验;4、熟悉分布式系统的设计和应用,熟悉分布式、缓存、消息等机制,熟悉服务治理、过载保护、熔断降级等高可用架构理念;5、有较强的沟通能力,良好的团队合作精神
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
职位描述: 1、负责业务系统的运维保障工作,通过不断优化技术架构,为业务提供安全、稳定,高效,易用的系统服务能力,支撑业务和数据量的快速扩张 2、负责公司关键业务线的高可用能力保障,沉淀业务保障关键能力,如应急响应、故障恢复、故障演练,健康巡检等 3、负责业务系统相关各组件运行状态的整体把控,根据业务需要,快速进行优化调整,解决组件相关系统瓶颈 4、具备自主学习思考能力,通过不断提高技术能力解决运维体系的稳定性、效率、成本、管理等场景问题 职位要求: 1、计算机相关专业,五年以上互联网运维工作经验 2、深入理解Linux系统,对内核参数、系统参数有优化经验 3、熟悉Haproxy、LVS、DNS、Nginx、MySql、Redis、Tomcat、Zookeeper、RabbitMQ、Kafka、Prometheus等主流开源软件技术及相关高可用架构 4、熟悉分布式对象存储,如:seaweedFS、minio、ceph等 5、熟悉shell或python脚本编写和开发,能根据需求开发脚本工具 6、熟悉Docker,Kubernetes容器化环境 7、有高并发业务系统运维经验 8、熟悉java类应用系统、微服务架构、分布式系统等运维工作 9、具有一定网络基础知识,了解常见网络设备日常配置 10、有很好的技术敏感度和风险识别能力,能够独立分析、排查疑难问题
-
工作职责 : 1、负责系统运维工作,主要包括应用系统的部署上线、变更发布、监控及故障处理等; 2、负责所负责定期的应用系统风险点梳理,监控及发现生产环境的问题和隐患,提升系统可用性; 3、所负责应用系统,协同并解决业务部门在系统使用中的问题跟踪 4、负责定期复盘和完善运维及监控体系。 任职资格 : 1、大学本科及以上学历,3年以上应用系统运维经验,具备3年以上运维管理经验; 2、熟悉linux/unix、中间件、容器,k8s相关技术,有运维开发或SRE经验优先; 3、熟悉PG/MYSQL/Redis使用及性能优化技术; 4、熟悉java/golang/python中至少一种开发语言; 5、具体良好的沟通能力,逻辑思维能力和团队合作精神,极强的工作责任心,能承担一定的工作压力。
-
岗位要求: 教育背景要求:本科及以上 技能要求:良好的需求理解力、问题分析、归纳能力 、跨领域协调能力 知识要求: 1、优秀的洞察及架构能力,熟悉数字化经验及4A架构; 2、熟悉Transformer、增量预训练、SFT、RAG、Agent技术栈,有大规模集群上实践经验者优先; 3、对技术有热情,具备良好的沟通表达能力和团队精神,自驱力强; 岗位职责: 1、对齐供应链业务战略,联合业务领域识别业务挑战及应用机会点,制定AI应用战略及演进路标,规划并落地AI应用的系统及解决方案架构,牵引应用架构及技术架构的演进; 2、聚焦供应链的核心高价值业务场景,通过构建AI应用,赋能供应方案设计、供应资源决策、订单履行管理等,优化供应链作业及运作模式,提升工作效率、质量与客户/伙伴供应服务满意度。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。