-
职位职责: 1、参与大数据存储相关产品的设计,负责存储产品相关功能的设计、交付和维护; 2、发现产品缺陷,设计高可用、易扩展的方案解决问题,实现产品高质量、高效率发布; 3、进行有效沟通协作,充分调动资源,推动产品有序高效落地。 职位要求: 1、熟悉大型分布式存储系统的关键技术点,能分析业务需求,产出产品解决方案; 2、熟悉Java/C/C++/Go等其中一种语言,熟悉网络编程和多线程编程,参与研发,完成产品落地; 3、熟悉大数据体系生态,除存储系统外,熟悉至少两种相关生态组件(如Yarn、Spark、Flink、Kafka、HBase)的原理、架构和应用; 4、具备较强的问题分析能力和团队合作能力,有较强的自我驱动能力和产品意识 。 具备以下条件者优先: 1、参与过PB级别数据量分布式存储系统研发,有过大规模数据集群运维、故障排查及调优等实战经验; 2、有ES相关的产品研发经验,特别是内核相关的开源项目参与经验; 3、参与过大数据开源项目的开发。
-
职位职责: 1、保障全公司包括抖音、国际化短视频、广告等业务的数据稳定性,提升数据平台服务产品质量,保障业务的持续可用; 2、基于运维经验、工具、平台对线上事故快速响应提升处理效率,同时优化运维体系,推动提升服务可靠性、可扩展性,保障系统SLA,同时推进运维自动化提效; 3、通过持续的全方位运营,包括运维规范及最佳实践、监控及可用性指标、历史事故等,为数据高可用架构设计和选型提供指导,同时能够系统性排查架构风险隐患,推进改进项落地; 4、参与大数据运维平台的研发、自动化建设与持续迭代,引导产品的运维模式向数字化,智能化方向发展演进。 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上SRE运维经验,熟悉运维体系建设与稳定性保障; 3、熟悉Linux、网络等系统运维技能,具备运维问题分析、应急解决以及性能调优等能力; 4、熟悉至少一门编程语言,包括但不限于:Shell、Python、Java、Scala、PHP、Go等; 5、具备良好的沟通表达、团队协作以及自驱能力,促进跨团队的合作; 6、有大数据稳定性问题排查经验,具备清晰排查思路,具备快速定位问题能力加分。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: 1. 负责公司的视频号/抖音/快手股市直播间的直播; 2.独立直播,定期复盘;完成直播间的各项数据指标; 3.合规直播,不涉及灰色地带,正规合法有平台财经主播经验; 4.每天直播时间不低于4-5小时,按绩效考核; 5.保持对财经领域的持续关注,不断学习和更新知识。 就职要求: 1、具备投资顾问从业资格,无违法违规记录; 2、熟悉金融证券知识,具备一定的投资能力、数据复盘能力; 3、思维敏捷,执行力强,吃苦耐劳,有强烈地通过勤奋工作创造财富欲望; 4、形象气质佳,思路清晰,表达流畅,有播音主持、销售经验优先; 待遇: 1、基础底薪(高保底)+奖金; 2、公司提供合规讲解案例和宣传口径,选股方法; 3、80-90后直播运营团队赋能,工作氛围轻松,扁平化管理。
-
岗位职责: 1、负责公司产品S-Data智能运营平台解决方案销售,包括智能监控、AIOPS、数据运营可视化、业务自动化等的销售推广工作; 2、负责行业客户跟进,数据保护解决方案销售,产品包括:超融合产品、存储/备份软件、容灾系统软件、虚拟化软件、网盘等; 3、独立拓展客户,具备与“C-level” 沟通谈判的能力; 4、负责客户长期跟踪,挖掘客户需求; 5、组织并策划相关的市场活动,如行业会议、客户沙龙等。 任职要求: 1、大学本科及以上学历, 具有金融、计算机等专业背景优先; 2、优秀的沟通表达及领悟能力,良好的职业形象,有金融行业相关经验者优先; 3、优秀的应届毕业生可以择优录取。
-
工作职责: 1、从事人工智能领域研究工作,包括不限于行业应用的跟踪分析与研判工作; 2、开展公司人工智能技术的应用研究、融合规划及材料撰写工作; 3、负责智能项目管理工作,进行智能产品规划与设计工作; 4、完成其他相关重点工作。 任职资格: 1、硕士研究生或以上学历; 2、具有较强文字功底及逻辑思维能力;具有优秀的表达、沟通与协调能力; 3、有1年以上咨询研究工作经验,有咨询公司、第三方评测机构工作经验者优先; 4、喜欢跟踪和研究分析人工智能与保险领域最新动态,对人工智能、金融保险行业有一定了解。
-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
岗位描述: 1、设计企业数据架构,包括逻辑模型和物理模型,以支持数据存储、处理和分析需求; 2、制定数据管理策略和数据治理流程,确保数据质量和合规性。 3、领导数据架构团队,提供技术指导和培训,确保团队成员的技术能力和项目执行能力。 4、与业务部门和技术团队合作,理解业务需求,设计和实施数据解决方案。 5、负责评估和选择数据管理工具和技术,以支持企业数据架构的演进和升级。 6、监控和评估数据架构的性能和稳定性,及时调整和优化架构设计。 7、有效管理工作时间,确保任务按时完成,以满足项目需求。 8、积极服从公司的各项安排,以促进团队的顺利运作和项目的顺利推进。 岗位要求: 1、本科及以上学历,计算机科学、信息技术或相关专业。 2、8年以上数据管理和架构设计经验,具备丰富的数据仓库和大数据平台项目经验。 3、熟悉大数据平台,有完整的数据工程项目经验,有AWS EMR平台经验者优先。 4、熟悉Hadoop生态体系,包括但不限于Hadoop、Hive、Spark、Flink、Kafka等。 5、对新兴数据技术和趋势有敏锐的洞察力,能够快速学习和应用新技术。 6、具备领导能力和团队管理经验,能够有效领导团队完成项目任务。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
工作职责: 1、负责金融风险监测预警、金融监管、工作协同等大数据产品的整体设计; 2、负责金融风险和监管类等大数据应用产品的需求调研、需求分析、原型设计、Demo制作、产品流程和交互设计; 3、负责产品研发计划、开发周期和进度把控,协调相关人员(数据,模型,服务,研发)按时保质完成产品开发、测试和发布; 4、关注和分析用户需求变化、业务场景及使用体验、数据及场景变化,提出改进计划,持续完善和优化产品功能; 5、协助项目经理进行项目交付,协助产品顾问团队编写技术解决方案等工作。 任职要求: 1、*****本科及以上学历 2、三年以上互联网数据产品经理工作经验,熟练使用 Axure 等产品设计工具 3、有一定的数据分析经验,对 BI 工具有了解者优先 4、有一定的 SQL、Hive SQL 基础,对数据生产流程有深入的理解,有数据仓库构建和使用经验者优先 5、对于数据产品工作有热情,有良好的业务理解能力和系统思考能力,逻辑性强,学习能力强 6、良好沟通和团队合作意识,工作踏实,认真细致
-
大数据开发工程师 1.本科及以上学历,计算机、数学等相关专业;; 2.熟悉hadoop,hive,spark使用及调优; 3.熟悉Java,掌握PythonShell等脚本语言,熟悉Linux操作系统; 4.了解机器学习常用算法,具备自然语言处理、特征分析等方面知识及应用经验者优先; 5.有较强的逻辑思维能力,较强的抽象、总结概括能力、沟通协调能力和抗压能力,善于思考。 ———————————————— 【招聘对象】 2020年9月1日-2021年7月31日期间毕业的海内外高校应届生 【招聘岗位】 大数据开发工程师、数据挖掘分析师、Java 开发工程师、前端开发工程师、ETL工程师 工作地点:深圳、广州、北京、上海、大连、厦门、成都 【薪酬福利】 完善的薪酬体系:有竞争力的工资、年终奖 多样的福利保障:双休、带薪假期、六险一金、员工基金、年度体检、节日/纪念日礼物...... 清晰的发展路径:管理及多种专业职位序列发展路径 持续的培养计划:导师制、内部专家讲师团队、学习部落,保障学习成果转化 【招聘流程】 宣讲→网申→两轮面试→发放offer→签订三方协议→实习/报到 (线上线下同时进行) 【网申方式】 PC端:进入校招官网https://app.mokahr.com/campus_apply/datamargin,选择意向职位投递简历 手机端:微信查找并关注“索信达控股”微信公众号,路径【加入我们】-【校园招聘】,选择意向职位投递简历 关注索信达控股,了解最新招聘资讯、查询简历投递进度
-
京东集团2025年数据开发工程师高薪招聘 【岗位职责】 千亿级数据处理系统开发 设计实时/批量处理架构,支撑京东市场营销、用户增长等业务在站外广告投放场景下的千亿级数据处理,支撑业务报表和算法模型的特征样本生产 百亿级报表引擎研发 构建高效数据仓库与实时分析平台,实现百亿级数据秒级查询与可视化 大模型智能体应用 开发AI驱动的问题发现/诊断工具,探索大模型在智能分析场景的落地 【任职资格】 硬性要求 · 计算机相关专业本科及以上学历 · 精通Java/Scala,具备良好的数据结构和算法基础 · 3年以上大数据开发经验,掌握Hadoop/Spark/Flink/Kafka/Redis/Hudi/Iceberg/ClickHouse/Doris等技术栈 · 具有较好的沟通能力、学习能力和团队合作精神,乐于挑战自我,有进取心和求知欲。 加分项 · 有搜推广数据系统、大模型应用开发经验者优先 【工作地点】 北京通州区京东总部 京东集团:以技术驱动零售变革,期待你的加入!
-
岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开发数据采集、清洗、分析、挖掘及可视化功能,需熟悉ES、milvus、pgsql等。 3.熟悉国产数据库,包括doris等; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.***本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.有信控平台开发经验者优先录取。