• 企业服务,医疗丨健康 / 上市公司 / 2000人以上
    Provide post-implementation System Consulting and Administration ? Communicate with China customers, gathering and analyzing requirements ? Support the customer-internal System Releases Cycle, including: o Customer engagement for the new requirements o Design and enable new product features o Tier 2/3 Incident Trouble shooting o Environment Management o Execute Customer Change Request o Data imports and exports maintenance o Adding/deleting/changing users, setting up security, changing territory and role hierarchy o Build KPI reports based on customers’ requirement o User training / feature education o Best practice sharing ? Willingness to “wear any hat” necessary to make the Customer successful ? Interact with Veeva Product Support on customer’s behalf ? Grow the capabilities of the team, develop best practices and accelerators 任职要求:At least Bachelor’s degree in Life Science, Computer Science, Computer Engineering, or related degree ? Strong Technical background, 5+ years of experience in Python and MySQL. Good understanding of software architect, data model, familiar with SQL ? Smart and eager to learn new things, ability to work independently in a fast-moving environment ? Ability to work under big pressure, always commit to the work assigned to him/her ? Excellent communication skills – ability to deliver formal presentation in the workshop, collaborate with diverse stakeholders and ensure delivery to a high degree of satisfaction ? Fluent English language proficiency in both verbal and written English ? Ability to juggle and prioritize
  • 15k-30k 经验3-5年 / 本科
    企业服务,数据服务 / 上市公司 / 500-2000人
    职位描述: 1、基础组件、基础设施的二次开发、L2支撑、交付; 2、围绕大数据组件服务平台开发,围绕组件进行串联部署、功能组合/抽象,给上层数据开发人员提供组件级平台服务 3、对Hadoop、Hbase、Hive、Flink等组件/系统进行持续研究、开发和交付,满足部署、集成、扩展、监控、高可用等生产需求; 4、根据理论与技术研究、产品对标和相关需求,持续产品规划与迭代; 5、根据现场信息搜集,分析、定位和解决现场问题,承担L3支撑 职位要求: 1、计算机相关专业,本科及以上学历; 2、3年及以上hadoop生态的基础设施开发经验,熟悉国内主流大数据平台; 3、熟练掌握Java,熟悉Linux开发环境及常用工具; 4、以下优先: (1)985/211(必备条件,不符合请勿投递,谢谢) (2)深入阅读过相关组件内核源代码 (3)深入理解分布式资源调度系统技术及原理 (4)深入理解linux系统能够独立排查及解决操作系统层问题 (5)有数据仓库经验者 (6)有运维经历者 (7)有C/C++开发经验 (8)有论文阅读、理论研究爱好与能力
  • 13k-16k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1.熟悉Hadoop,有过大数据开发经验 2.熟悉大数据开源技术,对Spark,flink,Hive, Hdfs等分布式计算存储引擎有实战经验 3.**本科,双证齐全
  • IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1.负责反欺诈系统大数据相关架构的搭建 2.参与集群的部署及搭建,监控与优化 3.参与新技术的调研及预研工作 4.参与当前大数据架构的业务功能开发及优化 技能要求: 1.精通hadoop部署框架及原理,并有落地的部署场景经验 2.熟练掌握flink或者spark之一的应用,并有落地的部署及开发场景经验 3.熟练掌握java开发语言,python脚本或者shell脚本 4.熟练掌握linux的基本知识 5.掌握elasticsearch以及实时数据湖技术的优先
  • 10k-20k·14薪 经验1-3年 / 本科
    移动互联网 / 不需要融资 / 50-150人
    岗位职责: 1、负责公司各产品线服务可靠、稳定、高效运行,提供K8S,Hadoop技术支持。 2、负责运维平台建设 通过技术手段提升工作效率; 3、负责公司各类基础设施监控、自动化、监控体系的持续建设与完善; 4、参与公司各类产品自动化实现,满足严格的质量与效率要求; 岗位要求: 1、***大学本科(计算机专业,获得***书、***书) 2、能熟练编写 Shell或Python脚本,有go/python/shell编程能力者优先 熟悉devops理念 3、熟悉自动化运维工具(saltstack/ansible/Jenkins)的原理及使用,有二次开发经验优先 4、具备kubernetes、docker、HDFS、spark、Hive运维经验者优先。 5、具备一定JAVA/GO开发经验优先。 6、具备良好的学习能力,能够快速掌握一门新的技术。
  • 12k-24k 经验1-3年 / 本科
    其他 / 未融资 / 15-50人
    岗位职责: 1.支持Hadoop集群底座的运维故障分析、解决、性能优化;大数据集相关组件主要包括:Yarn、HDFS、ZooKeeper、Storm、Kafka、Hbase、Hive、Spark、Kerberos、Spark、Flink、Flume、MySQL等组件运维; 2.开展Yarn性能优化,提升集群资源利用率和任务响应速度;队列优化和维护;优化调度器性能; 3.及时关注Apache官方网站、论坛,针对Patch提出升级建议、方案,并组织实施; 4.配合开展HDFS存储、Hive元数据治理优化,建立并完善存储治理方案; 5.配合开展Hive、Spark作业优化,对业务侧提出优化建议。如:作业小文件问题、数据倾斜治理方案等; 6.提出集群优化建设方案,配合建设和优化大规模分布式集群的自动化运维、监控等工具和管理平台。 任职要求: 1.本科及以上学历,通信/计算机等相关专业,具有良好的学习能力、沟通能力、团队合作能力及一定的抗压能力; 2.熟悉Hadoop、Hive、Hbase、Spark等开源项目,理解组件架构及原理; 3.对大数据运维开发有浓厚兴趣,熟悉Apache Hadoop部署、性能调优; 4.能阅读/理解Hadoop等相关开源组件源码; 5.对HQL、SparkSQL等有较深入的研究,能解决实际业务性能问题; 6.熟练掌握LDAP、Kerberos等安全认证体系; 7.熟练掌握Linux命令与工具进行问题定位,熟悉常规的互联网技术架构; 8.具备一定的Java开发能力; 9.擅长Linux Shell、Python脚本编写,有DevOPS/自动化运维经验工作者优先考虑。
  • 8k-10k 经验1-3年 / 本科
    移动互联网,金融 / 不需要融资 / 150-500人
    工作内容: 1.负责hadoop基础技术规划,编制相关规范文档; 2.负责Hadoop数据应用相关的数据存储、查询、计算、元数据管理的架构设计与实现; 3.负责hadoop的实际规划建设,包括环境与框架的规划搭建及部分核心编码工作; 4.负责hadoop相关技术发展方向的预研; 5.独立负责具体功能开发与实现、性能优化,保证系统健壮稳定及临时性数据处理工作的支持; 6.负责数据应用相关的数据存储、查询、计算、元数据管理等方面的架构设计。 岗位要求: 1.1年以上大数据开发经验,熟悉分布式的设计与应用。 2.熟悉hadoop大数据平台框架,包括不限于hadoop、hive、hbase等大数据生态平台组件的部署升级与调优。 3.熟悉hadoop、spark、flink、hbease、es等相关计算机存储框架的底层理论,并能应用至实际开发当中。 4.熟悉至少一款ETL工具,例如kettle、logstash等。 5.熟悉关系型及非关系型数据库的使用及优化,包括但不限于Oracle、PG、hive、clickhouse等。 6.熟悉各类大数据处理组件,sqoop、flume、kafka、azkaban等。 7.根据计划完成模块的编码开发工作,保证开发质量。 8.有良好的沟通能力,积极为项目建设提供建设性意见。 9.本科及以上学历,计算机相关专业,有银行工作、财务会计、管理会计业务经验优先。
  • 12k-22k 经验3-5年 / 本科
    移动互联网,医疗丨健康 / 未融资 / 50-150人
    电商开发工程师: 1.主要负责电商系统二次开发、接口、报表开发、及日常维护工作; 2.根据项目需要协助开展软件实施,包括需求收集分析、评审实现、测试、上线培训等阶段工作。 电商开发运维工程师: 1. **本科及以上学历,从事过电商系统开发或SaaS电商平台二开项目经历,2年以上开发经验。 2. 对业务部门的需求进行收集分析,可独立完成功能设计以及程序开发,具有较好的需求理解、分析、抽象能力。 3.精通sqlserver或mysql数据库,了解性能调优。 4. 有强烈的责任心,有良好的团队合作精神,具有较强的学习能力和逻辑分析能力。
  • 40k-70k·16薪 经验不限 / 本科
    物流丨运输,数据服务 / 未融资 / 50-150人
    职位描述 职责: 1. 负责AI平台的系统架构设计与开发运维工作,提供端到端的交付能力,包括模型设计,构建和测试等; 2. 集成云原生能力,开发调度,训练,推理等相关功能,提升平台资源利用率和扩展能力; 3. 负责线上环境的维护,监控,调优,和故障定位; 4. 持续运营,改进平台性能、易用性和稳定性,优化用户体验。 要求: 1. 计算机、通信相关专业大学本科及以上学历,3年及以上相关工作经验; 2. 熟练掌握Golang或者Python等编程语言,良好的编程基础; 3. 熟悉机器学习,深度学习架构如TensorFlow、Caffe、Pytorch等,具备云上AI开发运维经验; 4. 熟悉云原生相关技术,如Kubeflow、Kubernetes、Operator等,具备二次开发经验; 5. 熟悉调度器原理实现,有过kube-scheduler,GPU调度相关研发经验; 6. 具备大规模GPU集群运维经验,能够持续优化集群使用效率并快速定位使用过程中遇到的问题; 7. 具备强烈的责任心和良好的抗压能力,做事积极乐观主动。
  • 10k-17k·14薪 经验1-3年 / 本科
    企业服务 / 上市公司 / 2000人以上
    1.负责公司内部系统的开发和维护; 2.解决产品项目交付中的技术问题; 任职要求: 1、两年及以上研发经验,熟悉擅长Java、React、Vue; 2、熟悉MySQL、Oracle等关系型数据库,了解基本的sql优化; 3、熟悉LINUX操作系统(WINDOWS,LINUX等); 4、熟悉容器技术(docker、kubernetes); 5、善于学习和与人沟通,团队精神以及适合在高压力环境下工作; 6、良好的自学能力,为人正直、诚信,有较强的事业心和逻辑思维,具有独立分析、解决应用问题的能力;
  • 9k-14k 经验1-3年 / 本科
    金融 / 未融资 / 50-150人
    岗位职责: 1、开发数据相关的脚本程序 3、运维监控公司现有的交易系统。 任职要求: 1、熟练的python开发能力, 熟悉基于python的数据处理框架, numpy和pandas; 3、有基金、券商相关工作经验优先。
  • 9k-11k·13薪 经验1-3年 / 本科
    IT技术服务|咨询,软件服务|咨询,数据服务|咨询 / 不需要融资 / 50-150人
    1、熟悉保险业务。 2、熟悉运维工作的操作规范。 3、有耐心,抗压能力强。 4、本职位对技术要求不高,但必须熟悉业务和SQL阅读理解。 5、给入职人员提供后期的稳定培养方向。
  • 14k-18k 经验3-5年 / 本科
    生活服务 / A轮 / 150-500人
    【芝麻加油】要的就是你 【职位】高级运维开发工程师 【职位职责】 岗位描述 - 建立和完善运维流程规范,完成运维文档的编写和更新,并积极推动落地实施 - 负责IT运维日常工作管理及安全审计工作,阻隔开发数据安全问题 - 负责云服务产品和微服务架构下的各种服务的部署及维护 - 建立监控报警系统,制定系统和业务的监控的指标,实现快速问题定位、故障排查等能力,推动产品线问题的改善和解决 - 快速组织及解决运维过程中发生的异常及紧急故障,完成性能瓶颈等疑难问题的分析及处理 - 推进运维自动化工作 【职位职责】 - **本科及以上学历,计算机相关专业 - 4年以上研发/测试/运维工作经验 - 精通网关apisix的搭建与配置,完成灰度控制、流量控制、路由分发,以及lua插件的编写 - 熟悉服务发现与注册nacos的搭建与运维排障 - 熟悉主流监控分析系统,例如Zabbix、Nagios、Prometheus、Grafana等的搭建及使用 - 对日志系统的构建与优化有深入了解,FileBeat/Clickhouse/Kafaka的配合使用 - 对docker容器技术的使用熟悉,完成打包和发布的工作 - 精通Linux,熟练快捷进行各种运维操作,熟悉Ansible,擅于编写Python/Shell脚本 - 有良好的逻辑分析能力和沟通能力,执行力强、对待工作认真严谨、责任心强 【有你想要的】 1、交通便利:地铁3号线客村A出口步行100m左右即到; 2、环境Nice:空旷舒适的办公环境你值得拥有! 3、员工福利:六险一金、带薪年假、年度体检、员工旅游、一年两次调薪机会; 4、弹性上班:来体验大小周的快乐!(周边有很多吃吃喝喝的places)
  • 10k-15k 经验1-3年 / 大专
    移动互联网,金融 / 未融资 / 50-150人
    工作职责: 1、参与系统的详细设计工作。 2、负责系统的编码实现。 3、负责系统日常运维以及支持工作。 4、研发及设计文档编写。 任职资格: 1、熟练使用C/C++,熟悉linux操作系统优先 2、熟悉Mysql/db2/Oracle任意一种数据库使用。 3、熟悉Linux、Unix常用命令。 4、诚实可靠,责任心强,有团队配合意识。 5、有银行类项目经验者优先考虑。
  • 11k-15k 经验3-5年 / 大专
    企业服务,软件开发 / 上市公司 / 2000人以上
    1. 熟悉大数据云平台经验,再加Java开发 Java基础扎实,熟练掌握多线程编程,熟悉JVM,以及常规性能优化。 2. 熟悉spring,springboot,springcloud,nacos,mybatis,mybatis-plus等常⻅开源框架。 3. 熟悉redis,RocketMQ等常见中间件。 4. 熟练使用MySQL数据库,良好的数据库设计,SQL编写,索引性能分析能力。 5. 熟练掌握linux系统的使用。 6. 熟练掌握EKL系统的使用。 7. 有良好的逻辑思维能力,沟通能力,有责任心能独立完成需求。 1、本3专4,计算机/互联网/通信相关专业 2.熟悉java开发常用框架组件,能熟练运用到具体项目中 3.配合项目完成研发计划,有独立完成需求的能力