-
岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营; 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.掌握实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先。
-
岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言;
-
职位职责: 1、负责大数据方向相关数据内容,数据产品的测试和质量保障; 2、根据需求文档、设计文档分析测试点、确定测试范围、制定测试方案和策略、编写测试计划及用例; 3、根据业务逻辑编写测试SQL脚本,独立完成项目中数据指标,服务的测试,保证数据质量和稳定性; 4、负责规划、设计、实施监控每日数据产品的质量情况,提前检测发现数据的异常; 5、编写自动化测试脚本提升测试效率。 职位要求: 1、计算机及软件相关专业本科以上学历; 2、3年以上大数据相关平台、产品、应用测试经验, 有Hadoop、hbsae、Oracle等大规模数据监控,处理测试经验者优先; 3、精通一门脚本语言,Python 或 shell,解决复杂问题和编写自动测试工具和系统的能力; 4、熟悉常见软件测试流程、方法、系统,有敏捷团队经验者尤佳; 5、参与测试效果评估和软件质量核查,通过测试相关流程、策略、方法和工具等创新,提升测试的质量和效率; 6、对互联网质量保证领域有强烈的兴趣,有互联网或数据测试开发经验优先; 7、有性能、安全、白盒测试等专业测试领域经验者优先,能主动进行技术钻研; 8、性格开朗乐观,积极主动,善于沟通,具有很强团队协作能力。
-
岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
-
有完整数据类项目需求到落地的项目管理经验; 有快消零售业数据类项目管理经验优先。 Responsibilities: 1、独立负责大数据软件、大数据解决方案、数据洞察类等乙方项目的全流程管理,包括不限于:需求整理、进度跟踪、质量管控、风险预警评估、结项等项目过程管理; 2、负责项目资源的协调与组织,推动跨部门跨产品配合,确保项目团队各干系人协同工作; 3、负责项目实施交付,把控项目整体各阶段的进度,协调多方资源,制定项目计划,跟踪进度,控制总体成本,严守时间节点; 4、建立团队级别的报告,发现和诊断关键项目风险和问题,完成结项后效果跟踪、评估; 5、上级安排的其他工作内容。 Requirements: 1、本科及以上学历,计算机相关专业; 2、具有2年以上的数据类项目需求分析或软件开发项目管理相关经验; 3、熟悉流程管理、项目管理的基本理论、能够熟练操作办公软件、流程管理软件如office,visio,axure、axure、ppt等工具; 4、能够独立完成一个项目的业务需求分析工作,资料的编写; 5、具备较强的口头及书面沟通能力,能够与业务人员、开发人员、测试人员等顺畅交流,能准确说明需求的核心要点; 6、有较强的学习能力和抗压性,具备同时承担多种角色的潜力;
-
一、岗位职责: 1、参与云数据平台规划,分析业务问题,数据模型设计; 2、负责核心数据处理程序开发、部署调优、验收,及交付材料编写; 二、任职要求: 1、熟悉Linux/Unix系统和丰富的Java开发经验;熟练使用Spring boot,了解Spring底层结构,具备从事分布式相关系统的开发 2、精通大数据仓储技术栈有(Spark、Hive、HBase、redis、kafka、Hadoop等)相关开发经验 3、精通SQL,熟悉常用主流数据库,包括MySQL、PostgreSQL、Redis、MongoDB、Oracle,并精通其中任意一种,具有SQL性能优化经验 4、掌握主流ETL开发工具(Sqoop、Kettle) 5、熟悉至少一种实时计算引擎 Storm, Spark Streaming, Flink
-
工作职责: 1、从事人工智能领域研究工作,包括不限于行业应用的跟踪分析与研判工作; 2、开展公司人工智能技术的应用研究、融合规划及材料撰写工作; 3、负责智能项目管理工作,进行智能产品规划与设计工作; 4、完成其他相关重点工作。 任职资格: 1、硕士研究生或以上学历; 2、具有较强文字功底及逻辑思维能力;具有优秀的表达、沟通与协调能力; 3、有1年以上咨询研究工作经验,有咨询公司、第三方评测机构工作经验者优先; 4、喜欢跟踪和研究分析人工智能与保险领域最新动态,对人工智能、金融保险行业有一定了解。
-
岗位职责: 1. 负责大数据实时、离线、异构数据的同步和传输生态的研发,提供灵活高效的接入能力; 2. 负责大数据接入组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Flume/DataX/Logkit/Kafka等大数据接入技术和相关组件,有1年以上大数据接入研发经验; 2. 具备扎实的计算机基础,熟悉分布式系统研发,有云原生技术经验优先; 3. 精通Java/Scala研发语言,具有良好的编程研发能力; 4. 能够深刻理解业务,善于利用技术实现相关业务价值;
-
职位职责: 1、负责生活服务业务效率平台等方向大数据应用能力建设,包含数据专题分析、数据服务、数据诊断等; 2、针对业务场景梳理数据信息,提出一站式的数据解决方案; 3、持续的性能优化和架构升级,不断提升团队效率和产品的用户体验。 职位要求: 1、本科及以上学历,有扎实的前端和计算机基础,包括HTML/CSS/JavaScript/DOM/HTTP/数据结构等; 2、对技术充满好奇心,乐于学习,愿意分享,具备良好的服务意识,责任心,团队沟通和协作能力、发现并解决问题的能力; 3、精通至少一门MVVM框架,如AngularJS/Vue/React,使用React开发过项目或者复杂单页面应用者优先; 4、有一定的工程化思维和实践经验,深入掌握工作中常用的工具或技术,例如Grunt/Gulp/Webpack/Babel/Rollup等; 5、加分项:有过数据产品相关开发经验者,有自己的技术产品、开源作品或活跃的开源社区贡献者优先。
-
职位描述 1、负责贝壳一站式机器学习平台的设计研发与迭代改进,为业务提供稳定易用、高性能、高性价比的解决方案; 2、业内机器学习系统与平台前沿技术进展跟进与调研、落地; 3、参与模型训练,模型服务,模型管理,资源调度等机器学习相关问题的开发。 任职要求 1、计算机基础知识与编程基本功扎实,熟悉Go/Python/C++至少一种; 2、参与过大规模分布式系统的开发和维护; 3、良好的沟通能力和团队协作精神,严谨的工作态度与高质量意识 ; 4、善于学习新的知识,动手能力强,有进取心。 加分项: 1、有CUDA C/C++编程经验,有GPU并行计算编程基础(NCCL)经验优先; 2、了解分布式系统、容器相关领域技术,熟悉Kubernetes/docker等优先; 3、熟悉机器学习框架(Tensorflow/Pytorch/Jax)优先。
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。