-
岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
-
岗位职责 1、负责基于数据中台的工具/应用需求调研、业务规划、产品设计、模型设计等工作; 2、负责收集内外部用户需求,针对业务的数据需求进行系统化、体系化的搜集、整理、分析,并通过用户调研、深度挖掘用户需求,确定需求边界,完成需求捕获、需求分析、需求确认、业务建模,整理输出需求规格说明书; 3、负责组织完成需求规格说明书评审; 4、负责跟踪需求建设进度与质量,及时发现并协调解决问题; 5、负责需求管理工作,包含需求变更控制、需求版本控制等。 任职要求 1、本科以上学历,计算机、统计、数学相关专业毕业,5年以上相关工作经验; 2、对主流数据产品、数据仓库、BI产品有深入了解,负责设计过数据分析、数据挖掘、数据可视化相关产品,具有3-5年BI工具及大数据产品设计经验和数据业务分析能力; 3、熟练掌握SQL语句,在数据结构方面有较扎实的基本功; 4、具备产品经理基础工作经验,能把控从需求挖掘、需求分析、产品原型、业务建模,到产品上线后的跟进和升级改造等整个产品生命周期的质量和风险; 5、具备系统原型设计能力; 6、具备较强的沟通协调能力; 7、具备较强的文档编写能力,包含制作高质量的汇报PPT; 8、具有数据治理相关经验者优先。
-
30k-50k·15薪 经验3-5年 / 本科社交媒体 / 上市公司 / 2000人以上职位描述: 1. 负责微博搜索、智搜相关业务功能、策略算法、数据处理等开发工作; 2. 支持微博搜索、智搜相关相关模块,包括线上搜索引擎、语义搜索、搜索推荐、实时数据流、离线数据处理; 3. 参与搜索和智搜架构开发,包括对策略体系和架构体系的设计、开发、优化、调整,提升系统整体性能和可扩展性; 4. 负责搜索和智搜相关日志统计、大数据处理等用户行为分析工作,支持产品、业务、技术的规划和落地; 任职资格: 1. 熟练掌握如下程序开发技术之一,并有实际工作经验:linux下c\c++程序开发技术;linux下python程序开发技术;hive SQL;hive、hadoop、mr、spark等大数据工具; 2. 熟悉基础的数据结构和算法,程序设计开发中能够合理考虑性能问题,对系统架构设计有丰富的经验,能够给出合理的设计方案; 3. 有过搜索引擎、推荐、广告等相关系统设计、开发经验者优先; 4. 三年以上工作经验; 5. 良好的沟通能力,良好的团队合作精神;
-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营; 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
-
一、岗位职责: 1、参与云数据平台规划,分析业务问题,数据模型设计; 2、负责核心数据处理程序开发、部署调优、验收,及交付材料编写; 二、任职要求: 1、熟悉Linux/Unix系统和丰富的Java开发经验;熟练使用Spring boot,了解Spring底层结构,具备从事分布式相关系统的开发 2、精通大数据仓储技术栈有(Spark、Hive、HBase、redis、kafka、Hadoop等)相关开发经验 3、精通SQL,熟悉常用主流数据库,包括MySQL、PostgreSQL、Redis、MongoDB、Oracle,并精通其中任意一种,具有SQL性能优化经验 4、掌握主流ETL开发工具(Sqoop、Kettle) 5、熟悉至少一种实时计算引擎 Storm, Spark Streaming, Flink
-
岗位职责: 1. 负责教授相应专业课程; 2. 负责完成专业课程相应教学资料的准备; 3. 积极参与科研、教改、竞赛、专业建设工作; 4. 负责制定教学计划,组织教学活动,并根据教学效果及时进行调整和反思; 5. 完成领导交办的其他工作。 任职资格 岗位要求: 1.本科及以上学历,大数据技术、计算机应用技术、计算机网络技术等相关专业; 2.具有副教授或行业高级工程师及以上职称; 3.具有高校教师或行业工作经验5年及以上; 4.年龄一般不超过50周岁,有省级以上人才称号或荣誉,省级及以上首席技师、技能大师工作室领办人,放宽到55周岁。
-
工作职责: 1、技术投标:负责技术投标策略的研究,组织技术投标书的编写及校核; 2、定制化的解决方案售前支持:应对客户定制化需求,配合销售,协同产品线,提供解决方案设计、客户整体解决方案、可研报告及预算等编制; 3、售前客户交流及策划:完成日常的客户交流支持,包括:引导策划、产品或者解决方案的介绍和推介,协同销售进行营销全过程的技术支持、技术交流、合同谈判及技术交底等工作; 4、推进项目储备:负责推进公司产品在客户侧的项目储备。负责可研材料编写,为客户侧项目申报、论证评审等项目储备环节提供方案交流答疑等技术支持; 5、售前标准化:从工作流程、工作模板、产品优势提炼等方面,规范化、标准化售前工作,包括:技术投标标书标准化的投标模块、优秀案例整理等内容,以及解决方案定制化的规范和标准化。 任职资格: 1、熟悉电力营销相关业务,拥有2年及以上有电力营销业务相关工作经验; 2、具备较强的文字功底及文档、PPT撰写能力; 3、较强主动性和学习能力,协调产品和研发资源解决,形成和优化产品方案; 4、具备优秀的表达能力、性格开朗、工作态度积极,具有良好的团队合作精神; 5、了解主流新技术,具有信息化、大数据项目建设经验者优先; 6、具有售前、咨询工作经验者优先。
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
一、岗位职责: 1、协助管理层开展公司日常经营管理工作,如年度经营目标和计划制定,定期跟进及分析经营目标的达成情况,开展经营数据分析; 2、支持市场团队开展市场分析、客户分析、产品开发投入回报测算; 3、负责管理和监督科技子公司的财务及税务活动,包括产品研发成本测算、预算的编制及使用跟踪、项目成本分摊、研发资产折旧等; 4、负责组织和团队建设,与集团人力资源部门密切合作,协调和执行科技公司人员招聘、培训、薪酬和绩效考核等事务; 5、负责科技公司研发资源外包管理,包括外包人员进场和离场管理、考勤、成本核算、绩效考评等; 6、监督审视科技公司各团队工作落实、传达、跟进与结果达成,掌握公司整体运营和发展状态,为领导层决策提供依据。 二、岗位要求: 1、本科及以上学历,财务管理、人力资源管理、计算机软件等相关专业; 2、5年及以上相关工作经验,能快速熟悉业务,有中级或以上职称、或软考中级或以上证书优先考虑; 3、熟悉与本职工作相关的国家政策、法律法规; 4、熟练掌握本岗位工作所需的专业知识和专业技能,工作认真负责、积极主动,能较好地独立完成本职工作; 5、具备较强的沟通协调能力、文字表达能力和团队合作精神; 6、自驱力和逻辑性强,对数据敏感。
-
本科及以上学历,计算机相关专业。参与产品的需求分析、设计、开发和测试。参与系统架构设计,提出改进方案。能承受较强的工作压力。