• 9k-15k 经验5-10年 / 大专
    移动互联网,消费生活 / 天使轮 / 15-50人
    岗位职责: 1、负责GIS应用相关产品功能的设计、编码、维护工作; 2、与项目经理、测试部门对接,参与完成需求分析、单元测试、功能测试、Bug修复等工作流程; 3、提供运维服务工作,编写相关文档; 4、完成公司交办的其他开发任务。 岗位要求: 1、 △ArcGIS、测绘、计算机软件或相关专业专科以上学历; 2、 △5年以上GIS开发经验; 3、 熟悉WebGL、三维GIS(ThreeJs等)相关开发。 4、 熟悉ArcGIS 、Cesium、SuperMap、OpenLayers等webGIS开发中的一种或多种并能针对上述平台进行二次开发; 5、△熟练掌握SQL语言,熟悉Oracle、Mysql、PostgreSQL、达梦等数据库使用,会使用基本的SQL语言进行数据的分析工作。 6、△参与过ToG项目交付,具有项目管理经验者优先,参与过ToG数据类交付经验优先。 7、 熟悉ArcServer,GeoServer等服务端产品以及ArcEngine\ArcObjects组件开发; 8、 熟悉常见前端框架/库,如:AngularJS,React,Vue,ES6,Bootstrap,jQuery等; 9、 熟悉空间数据处理,转换,如ArcMap、SuperMap、QGIS、Udig空间数据处理工具; 10、 对开源的GIS软件和开发库有一定的了解,例如:PostGIS、leaflet、GDAL、proj.4等; 11、 有良好沟通表达能力,有学习精神,有工作热情,吃苦耐劳,有团队精神,能够适应工作压力。
  • 18k-30k 经验3-5年 / 本科
    金融 / 上市公司 / 500-2000人
    职位描述 1、保障大数据相关计算和存储等核心系统的高可用,同时关注系统容量与稳定性; 2、深化系统可观测能力,提升监控智能化,帮助系统开发&团队快速定位故障; 3、推动提升服务的可靠性、可扩展性以及性能优化,保障系统SLA; 4、构建自动化运维方案,参与设计、实现能够保障线上大规模集群快速迭代和自动化管理的大数据运维平台; 5、提升大数据基础设施的资源利用率合理化,成本治理和分摊; 职位要求 1、本科以上学历, 计算机相关专业, 并有3年以上相关大数据SRE工作经验; 2、扎实的计算机软件基础知识; 了解 Linux 操作系统、存储、网络 IO 等相关原理; 3、熟悉一种或多种编程语言,例如 Go/Java/Shell; 4、具备系统化解决问题的能力,良好的沟通技巧和主人翁责任感; 5、熟悉Docker、K8S等容器化与云原生技术的架构与原理,对于常见的故障与问题有实践经验,具有分布式/大数据等系统经验优先(Hadoop/Spark/Flink 等);有腾讯云、aws等多云运维经验更佳! 6、具有算法思维,良好的数据结构和系统设计的能力者优先;
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动国际支付的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 11k-13k 经验5-10年 / 本科
    工具,企业服务 / 未融资 / 150-500人
    1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
  • 15k-25k·15薪 经验3-5年 / 本科
    其他,金融 / 不需要融资 / 2000人以上
    岗位职责: 工作内容: 1.负责数据或大数据类项目的设计、需求分析、开发、测试和维护工作; 2.负责数据或大数据类项目的后续优化和升级需求的相关开发测试工作; 3.负责基于大数据平台使用流处理工具进行ETL的相关开发; 4.负责数据中台相关主题域和数据服务的开发和测试工作; 5.配合数据模型分析工作,完成模型分析输入信息的探查、采集、准备等开发工作; 6.协助项目经理跟踪数据类项目的实施进度,需求管理,协调解决项目问题,根据系统后续使用情况,规划优化方案等;    技能要求: 1.计算机相关专业本科及以上学历 ;  2.3年以上寿险数据或大数据类项目工作经验,有数据类项目需求分析经验,熟练掌握SQL,了解寿险业务和指标体系,; 3.熟悉数据中台架构或熟悉数仓分层分主题体系架构;  4.熟悉主流数据库系统:oracle、mysql和nosql数据库,有相关ETL开发经验; 5.熟悉分布式、缓存、消息队列、负载均衡等机制及实现,具备大规模高并发访问的应用系统开发经验者优先; 6.有相关大数据知识,了解大数据平台的基本架构和组件优先; 7.有完整的交付类项目经验,有数据中台用户中台项目经验优先; 8.具备较强的自学能力,团队精神及抗压能力,思路清晰,善于思考,能独立分析和解决问题,较强的沟通表达能力与协作推进能力。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 数据服务|咨询 / 不需要融资 / 500-2000人
    岗位职责: 1、负责数据库相关工具产品的开发和维护; 2、负责所开发模块的单元测试及回归测试; 3、解决产品开发中的关键技术问题,并具有一定的新技术探索能力; 4、负责产品相关文档的编写; 5、负责对产品的实施及售后工作提供必要的技术支持。 任职资格: 1、3年及以上 JAVA 语言开发经验; 2、对io、多线程、状态机、流水线等基础有深入理解 3、熟悉 SWT、AWT 等 C/S 技术; 4、熟悉 SpringBoot、VUE 等 B/S 开发技术 5、熟悉 MySQL, Oracle, PostgreSQL,SQL Server 等数据库; 6、熟悉 ShardingSphere,Druid 中关于SQL解析的代码逻辑; 7、JAVA基本功扎实,具有良好的代码编写风格; 8、沟通能力强;可适应加班及出差。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 15k-30k·13薪 经验3-5年 / 本科
    旅游|出行 / D轮及以上 / 500-2000人
    岗位职责 1、基于Spark/Hive构建企业级数据仓库及离线处理平台; 2、基于Spark/Trino构建统一的查询服务,支持ETL/AdHoc查询; 3、基于Spark源码完成问题修复及自定义功能开发; 4、参与维护离线调度系统的稳定性及性能优化; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导。 任职要求 1、本科及其以上学历,计算机相关专业; 2、精通Java/Scala语言,熟悉JVM的常用调优及问题定位,追求高标准的工程质量; 3、对Spark/Hive等离线计算框架有深入理解;对Spark源码熟悉优先; 4、熟悉Hadoop、Trino、Kafka、ZK、Elasticsearch、Redis等的工作原理; 5、熟悉常用算法和数据结构,熟悉网络编程、多线程编程技术; 6、逻辑清晰,思维敏捷,思路严谨,能独立分析和解决问题,责任心强,具备良好的团队协作能力; 7、具有较强的学习能力、自我管理能力、敢于挑战。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动集团数仓的平台设计、开发工作; 2、构建覆盖数据质量治理、数据资产管理、数据挖掘消费的全链路服务化方案,提升集团关键数据的质量、一致性以及利用效率; 3、落地业界领先的数据访问控制能力,保障数据访问安全合规。 职位要求: 1、计算机相关专业本科以上学历,深入理解计算机原理,有扎实的数据结构和算法基础; 2、熟悉使用 Java/Go/Scala/C++/Python 等至少一门语言,熟练使用MySQL/Redis/Kafka/ElasticSearch等常用存储技术,并熟悉其使用方式和实现原理; 3、能够使用 Doris/ClickHouse/Druid/Presto/HBase 等至少一种OLAP工具,并且掌握其原理; 4、优秀的设计以及编码能力、对技术有热情; 5、良好的沟通&理解能力,团队合作能力。
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 13k-26k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    职责要求: 1.负责数据模型的需求分析、模型设计、数据开发工作; 2.负责数据产品模型的维护; 3.负责数据管理类任务的开展实施,如数据建模,元数据管理、数据质量管理、数据资产梳理、数据资产评估与分析、数据运营等工作。 招聘要求: 1.***本科及以上学历,金融、经济学、数据分析、统计学等相关专业毕业; 2.熟悉掌握大数据及数据仓库原理; 3.熟悉Greenplum(GP)/Teradata(TD)/MPP/mysql/Oracle/Redis/MongoDB/Neo4j一种或者多种数据库,具备大型数据库(TD/GP/MPP)的工作经验优先考虑;熟悉掌握ERWIN等建模工具。 4.有很强责任心.团队精神和持续研究学习的能力,能够接受工作挑战。
  • 25k-35k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    职位描述 1、负责贝壳一站式机器学习平台的设计研发与迭代改进,为业务提供稳定易用、高性能、高性价比的解决方案; 2、业内机器学习系统与平台前沿技术进展跟进与调研、落地; 3、参与模型训练,模型服务,模型管理,资源调度等机器学习相关问题的开发。 任职要求 1、计算机基础知识与编程基本功扎实,熟悉Go/Python/C++至少一种; 2、参与过大规模分布式系统的开发和维护; 3、良好的沟通能力和团队协作精神,严谨的工作态度与高质量意识 ; 4、善于学习新的知识,动手能力强,有进取心。 加分项: 1、有CUDA C/C++编程经验,有GPU并行计算编程基础(NCCL)经验优先; 2、了解分布式系统、容器相关领域技术,熟悉Kubernetes/docker等优先; 3、熟悉机器学习框架(Tensorflow/Pytorch/Jax)优先。
  • 12k-20k 经验3-5年 / 本科
    居住服务 / 不需要融资 / 500-2000人
    【工作职责】 1.【SQL】熟练掌握SQL及其他主流数据库的使用:精通SQL、存储过程、函数的使用,具备编写、优化复杂SQL的能力; 2.【BI】熟练掌握BI看板数据链接,看板可视化能力,具备看板性能优化,设计调优能力; 3.【数据体系】 参与数据质量治理相关工作,提升易用性与数据质量,建立规范化、稳定可靠的数据体系; 4.【数据指标】深入业务视角,充分理解业务的目标,搭建符合业务场景的数据监控,构建业务跟踪指标体系; 5.【数据底层】对数据底层、数据产品有较好的理解能力,帮助业务设计数据产品并且配合上下游部门实现数据产品化。 【职位要求】 1.良好的商业洞察力和业务分析视野,对推动租赁流程创新和数据中台建设富有热情; 2.3年以上工作经验,统计学、数学、计算机科学、商业分析或相关专业; 3.有数据处理能力,熟练使用SQL、Python、SmartBI、帆软等数据分析工具; 4.具备较好的口头和书面沟通能力,有团队合作精神,擅长推动跨团队项目合作; 5.自我驱动、善于独立思考和抗压能力强、有韧劲。
  • 20k-30k 经验3-5年 / 硕士
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: 1、参与基于Hadoop的大数据平台的研发工作与持续优化工作。 2、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。 3、利用大数据相关技术实现对数据的分析、挖掘、处理、及数据可视化等相关工作。 4、学习和研究新技术以满足系统需求。 岗位要求: 1、拥有数据处理相关专业背景。 2、对互联网产品有见解,关注前沿技术,有较强的学习能力、分析能力和动手能力。 3、熟悉常用分布式计算和存储框架,如Hadoop/HDFS/Spark等。 4、至少熟悉以下一种大数据技术组件,Hive、Impala、Hbase、Flume、Kafka、Zookeeper、Storm、Flink。熟悉资产管理、资金业务和金融工程相关领域业务者优先。 5、个性乐观开朗,沟通能力强,具备良好的团队协作精神,能利用自身技术能力提升团队整体研发效率。 6、多份工作经历需最近2份工作均满2年,或最近1份工作经历满3年。仅有一份工作经历的需满两年。 7.工作地点:上海,成都