-
35k-60k·14薪 经验5-10年 / 本科金融业 / 不需要融资 / 50-150人岗位描述: 1、设计企业数据架构,包括逻辑模型和物理模型,以支持数据存储、处理和分析需求; 2、制定数据管理策略和数据治理流程,确保数据质量和合规性。 3、领导数据架构团队,提供技术指导和培训,确保团队成员的技术能力和项目执行能力。 4、与业务部门和技术团队合作,理解业务需求,设计和实施数据解决方案。 5、负责评估和选择数据管理工具和技术,以支持企业数据架构的演进和升级。 6、监控和评估数据架构的性能和稳定性,及时调整和优化架构设计。 7、有效管理工作时间,确保任务按时完成,以满足项目需求。 8、积极服从公司的各项安排,以促进团队的顺利运作和项目的顺利推进。 岗位要求: 1、本科及以上学历,计算机科学、信息技术或相关专业。 2、8年以上数据管理和架构设计经验,具备丰富的数据仓库和大数据平台项目经验。 3、熟悉大数据平台,有完整的数据工程项目经验,有AWS EMR平台经验者优先。 4、熟悉Hadoop生态体系,包括但不限于Hadoop、Hive、Spark、Flink、Kafka等。 5、对新兴数据技术和趋势有敏锐的洞察力,能够快速学习和应用新技术。 6、具备领导能力和团队管理经验,能够有效领导团队完成项目任务。
-
岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,参与稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,支持提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.熟悉spark/hive组件原理和应用,精通spark内核相关知识和技术,有较大规模RSS生产实施经验。 3.了解大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有AWS/GCP/阿里云等云平台使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
商务拓展-政府、交通、水利行业(J10097)
[上海·龙华] 09:22发布15k-25k·13薪 经验5-10年 / 本科软件服务|咨询,人工智能服务 / 不需要融资 / 150-500人工作职责: 1、负责长三角政府、交通或水利行业渠道客户、直客市场拓展和数字孪生解决方案销售工作,完成半年度、年度销售目标; 2、结合公司(数字孪生应用、仿真模拟、元宇宙场景)产品矩阵,归拢自身的行业客户画像、重点客户地图以及市场打法策略,通过销售成功项目开发成功树立行业标杆案例,帮助客户和合作伙伴持续成功。 任职资格: 1、有政府、交通、水利水务行业资源背景,商业拓展能量较高者优先; 2、熟悉地方政府在相关行业的政策/资金来源/招采流程/决策架构的优先; 3、服务政府、交通、水务水利数字化、信息化、智能化项目经验丰富,专业背景在软件/智慧物联/大数据平台/人工智能应用等领域的优先; 4、认可51WORLD产品能力和市场地位,自身有面向政府大数据中心、交通、水务水利数字孪生应用场景落地(明确的数字目标)的经营方法和工作能力的最优先。 -
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位名称:数字孪生行业场景开发工程师 职位概述: 数字孪生行业场景开发工程师是负责将数字孪生技术与实际场景相结合,开发出具有实际行业应用价值的数字孪生场景产品或服务的高级技术人才。该岗位需要深入理解数字孪生技术,能够根据客户需求,设计并开发出具有创新性的行业数字孪生场景解决方案。 主要职责: 1. 负责数字孪生行业场景的设计、开发和优化,包括但不限于环境建模、传感器模拟、数据交互等。 2. 与团队成员紧密合作,确保项目进度和质量,解决项目中的技术难题。 3. 深入理解客户需求,提供具有创新性的行业数字孪生场景解决方案。 4. 参与公司智慧类行业数字孪生场景相关产品的研发和推广,推动团队的技术进步。 5. 参与团队内部培训和知识分享,提升团队整体技术水平。 基本要求: 1. 计算机科学、软件工程、数学等相关专业专科及以上学历。 2. 熟悉数字孪生、虚拟现实、增强现实等相关技术,有相关领域工作经验者优先。 3. 熟练掌握至少一种主流编程语言,如Python、C++、Java等。 4. 具有较强的逻辑思维能力和问题解决能力。 5. 具有良好的团队合作精神和沟通能力。 优先条件: 1. 拥有数字孪生场景开发经验者优先。 2. 熟悉three.js和cesium.js开发框架者优先。 3. 拥有独立自主研发和推广新技术经验者优先。 工作环境: 该岗位将在一个充满活力和创新的环境中工作,与优秀的团队成员共同合作,追求卓越的技术成果。公司将提供良好的培训和职业发展机会,以及具有竞争力的薪酬福利。工作地点可根据个人需求和公司实际安排。
-
35k-60k·14薪 经验5-10年 / 本科金融业 / 不需要融资 / 50-150人岗位职责: 1、负责公司云计算平台的架构设计、部署、运维及优化,确保系统的高可用性、稳定性和安全性; 2、领导50-100人的技术团队,制定团队目标、分工与绩效管理,推动团队持续发展与技术能力提升; 3、主导云基础设施的日常管理工作,包括资源分配、容量规划、故障排查、监控告警等; 4、负责系统运维自动化工具的开发与优化,提高运维效率,减少人为干预; 5、跟踪行业云计算相关技术的发展趋势,定期评估并优化现有技术方案; 协调跨部门需求,提供技术支持,确保产品与服务的顺利交付; 6、制定并执行系统安全策略,进行定期安全审计与风险评估; 7、管理供应商及相关服务商关系,合理控制成本并优化资源使用。 任职要求: 1、学历要求: 计算机科学、信息技术或相关专业本科及以上学历; 2、技术经验: 至少8年以上运维及云计算相关工作经验,其中3年以上AWS平台运维经验; 3、团队管理: 具备50-100人团队管理经验,优秀的领导力、团队协作能力与问题解决能力; 4、技术能力: 精通AWS各项服务(如EC2、S3、RDS、Lambda等)以及相关自动化运维工具(如Terraform、Ansible等); 5、实践经验: 熟悉大规模分布式系统的架构及运维,具备处理高并发、高性能系统的实战经验; 6、安全意识: 了解云计算安全最优实践,熟悉身份认证、数据加密等相关技术; 7、良好的沟通能力: 具备优秀的跨部门沟通协调能力与英语读写能力;
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
职位职责: 1、基于对景区门票行业的理解和分析,进行商品审核策略和分层策略设计并跟进策略实施与落地; 2、抽象共性特征,提出履约及治理产品需求,推动产品能力优化解决问题。 职位要求: 1、本科及以上学历,具备3年及以上门票、电商、度假等相关行业治理和体验经验(如商家运营、体验运营、商家商品治理、内容治理、业务风控治理、互联网商家/商品策略、行业研究等); 2、深入洞察行业动向、消费者/商家需求,有良好的产品化思维,擅长设计指标和规则策略机制; 3、具备良好的洞察能力、数字敏感性和逻辑思维能力,善于独立思考,逻辑性强,能发现问题并制定解决方案并推动落实; 4、具备较强的资源整合能力、跨团队协作能力,具备优秀的沟通协调能力、较高的抗压能力,有强责任心和推动力,具备一定项目管理经验。
-
岗位职责: 1、跟踪金融行业发展动向,研究行业大盘、竞争情况、产品创新等; 2、梳理行业商业模式及发展趋势,及时提示业务机会与风险,给出合理化的业务设计与策略设计方案; 3、为业务线或高层提供决策支持并推动落地。 职位要求: 1、3年及以上行业研究、咨询或商业分析从业经历,有金融行业研究经验者优先; 2、熟练掌握行研方法,能独立完成从研究立项到报告产出的工作; 3、兼具研究视角与业务视角; 4、出色的沟通协调能力与项目推动力。
-
职位职责: 1、负责抖音APP搜索功能内电商板块工作,对电商相关搜索板块的用户体验及转化数据负责; 2、负责电商搜索行业运营部分的运营工作,具体负责某行业的目标达成及搜索渗透提升,包括需求跟进、效果评估、实验分析、营销活动策划、搜索效率提升等,对行业的整体数据负责,有标品-快消/耐消、非标-服饰运营经验者优先; 3、对行业货品结构有洞察,结合抖音直播货盘和货架货盘的情况,挖掘行业供给线索,推进行业供给补齐; 4、协同产研,对行业的搜索效率、转化效率进行提升,包括供给、前端、策略等,负责制定策划营销、新品等专项提升计划,提升行业和搜索的整体数据提升; 5、负责抖音电商的各类规则在搜索场景下对齐、应用,对准确性、合理性负责。 职位要求: 1、本科及以上学历,3年以上互联网电商搜索运营/产品运营/行业运营等相关工作经验,有用户运营相关的工作经验优先; 2、对电商搜索的基本功能、概念、逻辑有所了解,做过产品运营、用户运营、营销运营者更优; 3、具备良好的数据敏感度和业务敏感度,有良好的数据分析能力,能基于业务现状及数据现状,制定优化方案并实际落地; 4、具有较好的项目管理、流程搭建和落地能力,有独立负责项目的经验,跨团队协作和沟通能力强; 5、具有强烈的学习意愿和工作热情,能够适应快速工作节奏。
-
【岗位要求】 1、参与或者负责大数据的采集、存储、处理,通过分布式大数据平台加工数据,数据驱动运营 2、参与或者负责大数据仓库离线和实时设计、开发、维护工作 3、参与或者负责大数据平台的开发、维护工作 4、参与或者负责数据服务和大数据产品的研发 5、对数据有敏感度,发现数据、挖掘数据价值 6、具有良好的沟通表达能力和团队合作精神,具有较强的工作责任心、主动性及抗压能力 【任职要求】 1、有3年及以上研发经验,参与过大型数仓建设、数据分析、数据挖掘、数据平台研发等相关项目,有一定的数据建模,流批处理基础 2、熟悉大数据相关组件,包含但不限于Hive、Flink、Spark 3、熟悉主流数据库技术,包含但不限于Oracle、MySQL、PostreSql 3、熟悉数据研发相关算法,熟练构建和优化数据模型
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
高级组长(需要管理经验): 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。 高级骨干: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备5年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。