-
岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等; 技能要求: 1.计算机相关专业本科及以上学历 ; 2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构; 4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
-
工作职责: 1、负责保险数据中台整体架构设计与优化,负责主导数据中台/数据仓库/数据集市的模型架构设计; 2、构建数据治理体系,包括制定数据标准管理规范,元数据管理,主数据、数据质量监控等数据管理工作; 3、负责团队内数据建模方法体系的构建和理论指导、能够带领团队提高技术水平,培养团队人才; 4、理解并合理抽象业务需求,发挥数据价值,带领团队完成数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作。 任职资格: 1、**本科及以上学历,5年以上数据中台/数据仓库/数据平台相关经验,具备乙方或者大型实体企业内部的数据建模项目经验; 2、具备数据仓库和数据建模能力,熟悉建模理论与方法、维度建模、不同行业的模型主题域,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等; 3、具有数据仓库建模经验,熟悉IBM和teradata的FS-LDM的建模方法,并有金融企业数据中台/数据仓库建模实际落地经验; 4、个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5、熟悉大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,对常见数仓技术体系:Kylin,Doris,Clickhouse,Hive,Spark,Flink,Kafka等,有一定实际研发经验。 6、具有良好的沟通能力和抗压能力,有项目协调/团队管理的经验。 加分项: 1、熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程; 2、熟悉保险行业相关业务,具备项目协调/团队管理的经验; 3、有阿里大数据生态Maxcompute、dataworks项目经验;
-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位职责: 1、优化和规划中心内的系统数据管理体系; 2、负责制定和落实业务数据的综合治理方案(如结构模型,混合存储,访问优化,高效复制等); 3、保障和提升关系数据库和非关系数据库的高可靠,高安全和高性能; 4、与集团运维管理部门保持积极和有效沟通,推动完善中心的数据架构演进; 任职要求: 1、***本科以上学历,计算机相关专业,8年以上专业经验; 2、精通主流关系数据库(至少MySQL)的体系,具备优秀的数据库架构设计能力; 3、精通多种非关系数据库(至少Redis) 的运行机制,有丰富等性能调优、异常处理、故障恢复等经验; 4、精通数据库重要机制(如事务,复制,索引,日志),熟悉数据库高可用架构; 5、精通文档数据库,对象数据库等原理,常用实现和优化策略; 6、善于钻研,能够决策,乐与沟通,能胜任跨团队跨部门协作 7、有业界大型互联网企业工作经历
-
岗位职责: (1)参与制定兴业银行系统架构整体规划; (2)参与兴业银行系统架构管控,审核系统架构合规性; (3)负责兴业银行系统技术可行性研究、架构设计、整体实施方案设计等工作。 岗位要求: (1)具备应用架构、数据架构、技术架构、安全架构设计能力中的一个或多个; (2)具备宏观架构设计思维,具有主导大型复杂系统架构设计和开发编码经验。了解银行业务概貌,具备银行大型系统开发经验者优先; (3)具备良好的技术前瞻性研究能力,具备优秀的技术方案设计能力和文档能力,能独立完成重要信息系统整体方案的设计; (4)精通Java或C语言,熟悉Hadoop、MySQL、TDSQL、OpenGauss等一种或多种。 工作地点:上海、福州、成都
-
岗位职责: (1)负责数据清洗、数据分析、数据挖掘、数据服务等; (2)负责与外部门信息交换的技术管理工作; (3)利用技术手段对客户信息进行技术分析和应用服务; (4)运用数据分析建设业务模型,并持续跟踪优化; (5)负责领导交办的其他工作。 任职资格: (1)计算机、数学、统计学等相关专业本科及以上学历,具备扎实的专业基础知识; (2)3年以上数据技术领域工作经验,熟悉大数据平台架构与关键技术; (3)熟练掌握Hadoop、Spark、Kafka等大数据处理框架,具备丰富的实战经验; (4)具备良好的数据建模、数据挖掘与数据分析能力,能够运用SQL、Python等语言进行数据处理与分析; (5)熟悉数据仓库、数据湖等数据存储技术,具备数据治理与数据安全方面的经验; (6)具备良好的团队协作与沟通能力,能够适应快节奏的工作环境,具备较强的抗压能力; (7)对新技术充满热情,具备较强的学习能力和创新意识。
-
岗位职责: 1、带领部门数据中台数仓开发成员,负责太保寿险内部数仓各层逻辑模型的设计、建设与维护,构建可扩展的数据仓库公共模型; 2、负责数据处理流程的优化、定位并解决有关技术问题; 3、对接公司个险、团险、运营等业务团队,协调满足业务团队对于各维度数据的需求; 4、参与制定公司与事业部数仓规划、数据研发规范、以及数据治理与指标的管理方案。 任职要求: 1、5年以上数据仓库工作经验,熟悉数据仓库模型设计方法论,有实际搭建公司层级数仓的经验; 2、精通数据仓库有关领域知识,例如元数据管理、主数据管理、ETL工作流、SQL性能调优等; 3、精通SQL、熟悉Shell、具备海量数据加工经验; 4、熟悉Flink或者阿里Blink等实时计算框架,并有实际实时数仓开发经验; 5、有阿里云数据中台产品DataWorks、MaxCompute工作经验优先、熟悉Hive/Flink/Spark等开源大数据工具优先; 6、有较强的问题抽象、概括、总结能力,独立思考并能以产品的思路提出解决方案; 7、具有较好的沟通理解能力,团队协作和创新能力; 8、有互联网公司或者保险金融企业数仓建设经验者优先; 9、有一定团队管理经验。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
工作职责 1、作为公司三线专家,支持公司一线、二线工程师关于存储的疑难问题解决,能作为专项技术的托底角色; 2、速响应和解决生产环境中的故障,执行紧急修复措施,并分析根本原因,提出长期解决方案; 3、编写相关技术方案、应急演练和应急操作方案、技术和运维规范,对历史问题进行复盘管理和提炼体系化改善方案; 4、参与存储运维提效的整体的设计、数字化转型和运维数字化建模、数据采集分析和治理的方案设计; 5、团队内开展深度技术的分享;公司存储技术的知识库建设,团队技术能力成长的有计划的、可衡量的培训方案。 任职要求 1、本科及以上学历,6年以上存储故障处理实战工作经验; 2、精通主流SAN,NAS存储技术,熟悉对象存储技术,熟悉存储硬件及软件架构; 3、精通集中式存储产品,对至少一家SAN、NAS全球头部产品相关技术及其故障处理思路和业务规划及配置流程非常熟悉; 4、精通分布式存储产品,对Ceph、Glusterfs、daos存储原理及其故障处理思路和业务规划及配置流程非常熟悉; 5、精通存储压力测试参数及调优方式,至少熟悉以下压测工具中的一种 (vdbench,fio,lOmeter,lOzone,cosbench); 6、精通存储数据保护技术,对存储解决方案,例如raid2.0+,快照,克隆,远程复制,双活,0拷贝有较深入解; 7、熟悉存储网络 (SAN) 技术,对scsi协议、FC协议、nvme的协议格式和命令能参照文档进行解读; 8、熟悉主流操作系统和开源数据库架构、存储技术栈的调用关系,如linux的IO技术栈、数据库数据存储结构和数据操作进程; 9、熟悉存储常用业务场景,包括不限于数据库,虚拟化等; 10、有阿里云、华为云认证优先。
-
岗位职责 1. 参与数据治理规划,制定详细的治理专项计划与实施方案,负责数据治理专项的整体推动; 2. 负责制定数据管理相关政策、制度、流程的方案,并推进实施落地; 3. 负责数据治理解决方案规划及实施,包括数据治理体系、数据架构与标准、数据质量、元数据管理、数据湖、数据主题联接、数据服务、数据分析和数据安全等方面的工作; 4. 分析数据现状,总结数据业务问题,并提出合理的解决方案。梳理数据资产(如数据目录、指标维度体系、标签体系、主数据等); 5. 研究与引入业界优秀的理论体系、解决方案、工具装备等。 任职要求 1. 本科及以上学历,数学、计算机或统计学专业,5年及以上数据管理相关工作经验,有制造行业数据相关背景优先; 2. 熟悉数据管理和数据治理相关理论与方法,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法; 3. 熟悉数据项目开发流程,能和设计人员、数据开发人员、运营人员紧密配合,协调和推进各方面工作; 4. 熟悉业界先进的数据治理相关产品和软件,了解数据湖、Hadoop、Spark、数仓、BI等平台和工具的优先; 5. 有良好的的沟通能力、逻辑思维能力和推动力; 6. 对DAMA、数据成熟度评估等方法论有较深刻的理解,有CDMP,CDGA、CDGP等数据治理证书优先。
-
工作职责: 1.负责公司数据库系统的管理,提供高可用、高性能数据库系统,并保障系统7×24小时正常运行; 2.负责数据库性能监控与优化,故障处理与灾难恢复; 3.为开发人员提供技术支持并提供培训; 4.参与应用系统数据库设计、数据接口开发,提供数据库规范指引、性能优化建议等; 5.参与数据库平台开发,及相关自动化流程开发工作。 任职要求: 1.**本科及以上学历,计算机相关专业优先; 2.3年及以上数据库运维相关工作经验,有大数据技术栈相关工作经验优先; 3.精通MySQL/MongoDB,熟悉TiDB/Oracle等数据库,有相关技术认证的优先; 4.熟悉互联网应用架构模式,掌握数据库高可用架构,熟悉云原生、容器化、虚拟化等基本原理和应用场景; 5.熟悉Linux操作系统,了解服务器硬件、存储、网络等基本知识; 6.至少掌握Perl/Python/Java等任何一门开发语言,能完成自动化运维工作,有开发背景经历优先; 7.具备安全、风险意识,有良好的沟通及处理突发事件的能力,能承受一定的工作压力。
-
岗位描述 为了更好地提升城市即时配送的效率与体验,美团于2017年启动了无人机配送服务的探索,通过科技创新推动履约工具变革,加快建设空地协同的本地即时配送网络,致力于为用户提供3公里、15分钟的标准配送服务。通过发展飞行器、导航控制、AI算法、航线管理、通讯系统五大自研技术能力,并适应社区、商场、写字楼等多种场景,让无人机与骑手形**机协同的配送,真正实现“万物到家”。 截至2022年6月,美团无人机已在深圳落地10个社区,4个商圈,完成面向真实用户的订单超6.2万单,并在北京、深圳等地测试机场完成了超过40万架次的飞行测试,配送飞行总时长1万小时以上。此外,2022年5月下旬,美团无人机开始在杭州进行常态化核酸样本运输,截至7月中旬,已配送超200万人次的核酸样本。 我们的使命是建设高效便捷的城市低空物流网络。加入我们,一同探索广阔蓝天,把路修到天上去,用科技帮大家吃得更好,生活更好。 岗位职责 1. 负责无人机及相关硬件产品线的终端软件架构设计,带领团队开发设计平台架构软件,并承担关键模块的代码实现; 2. 带领团队设计实现高效可靠的基础架构软件,例如但不限于,IPC, metrics pipeline, diagnostics, hardware abstraction layer,等等; 3. 在工程实践中,在包括代码规范及质量,设计方法及质量,测试设计及质量等方面,以身作则,带领组内同事成长,并对跨团队输出技术影响力。在工程周期中,负责带领团队执行系统化,有效的code review, design review; 4. 时刻关注技术细节,并有敏锐的洞察力和高质量的技术判断力,识别软件架构及整体软件栈中的短板,并通过审慎的权衡定义工程需求,做出工程计划及优先级的定义; 5. 对终端软件的平台架构交付质量及发展方向负责。与跨职能团队有效沟通,通过清晰,易扩展,稳定,高性能的架构赋能所有在终端层面进行软件开发的跨职能团队。 岗位基本需求 1. 扎实的CS基础; 2. 必需熟练掌握C/C++,有使用C/C++进行商业化产品开发的经验; 3. 必需具备为硬件产品设计实现软件架构的经验; 4. 必须保持工程上 hands-on 的能力; 5. We expect you to have strong self-motivation, strong ownership and hold a consistently high bar for engineering excellence; 6. Excellent problem solving, critical thinking and communication skills. 具备以下者优先 1. 有无人机、机器人、自动驾驶、智能硬件领域经验(strongly preferred); 2. 有ROS/ROS2经验(strongly preferred); 3. 有为商业化硬件产品开发并设计软件架构经验(strongly preferred); 4. 有AI相关异构加速计算相关经验, 例如 NPU、GPU、DSP(strongly preferred); 5. 有团队管理经验(preferred, but not a must have); 6. 有作为 Technical Lead, 负责整个产品周期从概念化,研发直至发布和维护的经验(strongly preferred)。 岗位亮点 1. 美团无人机在过去几年的技术深耕,在深圳等城市已经投入正式运营,基于美团的商业模式与基础,未来发展潜力巨大; 2. 无人机物流在世界各国范围内,从技术上以及政策层面,正在经历关键的拐点,各国在无人机物流领域都在近期体现明显的加速落地及发展的趋势,该领域正处于爆发上升期; 3. 无人机以及相关产品线,属于强技术驱动,有大量的技术挑战。合理、可靠、高性能、易用、易拓展的软件架构及工程落地,对于工程规模化以及商业规模化,至关重要!因此,这个岗位的重要性、scope以及未来的职业发展空间巨大。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。