• 20k-30k 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、负责向矿山客户提供业务咨询、技术咨询、规划、设计等专业服务; 2、负责项目售前阶段的需求分析、方案交流、方案设计、概念验证、招投标等工作; 3、负责与公司内部各部门紧密合作,共同推进产品及解决方案的拓展与落地,包括方案交流、需求分析、解决方案设计以及商务模式的确认; 4、负责与内部研发团队沟通协调,促进解决方案落地,包括项目落地、产品及服务交付等; 5、 赋能生态合作伙伴,进行方案的培训和宣讲。 任职要求: 1、本科以上学历; 2、3年以上矿山行业相关经验; 3、能独立编写露天矿智能化建设方案; 4、熟悉国家矿山监管政策; 5、了解大数据、AI、矿山智能化等技术。
  • 30k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 团队介绍:飞书商业化团队(Go to Market)负责将飞书先进产品和服务全面推向中国和国际市场,通过制定精准的业务战略,进行破圈的市场营销,深入理解不同行业的趋势和特点,传递飞书的理念和价值给不同行业的企业客户并达成业务合作,帮助客户加强使用深度和广度,最终让飞书成为各行各业先进企业的**、持续助力企业组织升级。飞书于2019年正式启动商业化,目前已在中国、新加坡、日本等国家和地区建立了商业化团队,开启了为全球各行各业组织和个人提升创造力和效率的历程。 1、带领华北大区售前解决方案团队完成项目支持,跟销售团队一起参与用户的需求交流、技术梳理、方案制定、产品演示、招投标工作等,有效地向客户传达解决方案和产品价值; 2、提供面向区域客户的专业咨询能力,具备高层对话能力,提供行业一体化解决方案,具备运营行业客户的成功经验; 3、能负责客户需求的对接并参与和产品团队的深度沟通,为大客户侧的解决方案匹配及顺利落地负责; 4、基于标杆客户场景,产出可复制的客户成功案例和行业最佳实践,关注战略客户的成功交付上线和持续服务。 职位要求: 1、本科以上学历,熟悉SaaS/协同/安全/云计算/大数据等相关信息化产品; 2、熟悉客户价值链、行业趋势、客户痛点、IT系统与数字化建设趋势、数字化转型趋势、管理、组织建设等; 3、过往具备售前解决方案团队的组建、管理经历; 4、具备较强的领导力,能够以积极心态带领团队实现公司目标,良好的组织协调和沟通能力; 5、具备快速学习能力,能够深入了解产品,技术,客户。
  • 15k-25k·13薪 经验3-5年 / 本科
    工具类产品 / A轮 / 50-150人
    岗位职责: 1. 配合销售团队完成售前咨询、需求分析、产品调研、系统演示、方案撰写、讲解及谈判等工作,根据客户需求,快速出具解决方案及实施方案; 2. 参与项目各阶段的技术方案设计、撰写及报告陈述,参与投标过程; 3. 技术文件的撰写:熟练使用 Office 系列软件进行方案、标书撰写; 4. 进行相关竞争厂商产品和方案的竞争分析,跟踪与研究产品动态和业界发展趋势; 5. 收集、整理和分析竞争厂商产品情况,分析产品优劣势,配合销售团队完成客户需求的建立与引导; 6. 协助销售人员培养和维护客户关系,与客户技术部门建立长期稳定的合作关系; 7. 定期与客户进行沟通,了解客户对产品使用、功能需求的情况,提供持续的服务和支持; 任职要求: 1. 计算机相关专业本科及以上学历,具备扎实的专业知识基础; 2. 两年以上 IT 软件行业的售前工作工作经验,具备软件开发工作经历优先; 3. 熟悉售前工作流程,具备独立负责售前项目的能力; 4. 熟悉业内主要商业或开源研发工具体系,并对部分工作具有实际的使用经验。包括但不限于 Swagger、YApi、Postman、Mockjs、Jmeter、Jenkins、Docker 等;能够结合客户需求和场景设计解决方案,解决客户技术性问题; 5. 了解主流开发语言(如 JAVA、JavaScrip、Python 等); 6. 具备良好的方案汇报、协同沟通的能力,能够高质量的完成公司产品及方案的讲解工作; 7. 熟练掌握标书编写与流程流程、规范,具备技术谈判经验与技巧; 8. 具备亲和力、耐心与洞察力,善于聆听别人意见,洞察客户潜在想法与需求,能够适应短期周边城市出差;
  • 15k-20k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    一、公司介绍: 彩讯股份(创业板股票代码:300634)是一家软件互联网上市公司,业务覆盖协同办公、智慧渠道、云和大数据等领域。拥有五地研发中心和遍布全国的运营网络,员工超过3000人。公司坚持“智能化、数字化、全面铺开”的发展战略,并持续加大在人工智能与大数据方面的投入,未来将成为行业领先的智能数字化企业。 二、岗位职责及要求 岗位职责: 1.积极参与项目招商对接工作,与潜在合作伙伴进行沟通洽谈,评估合作可行性,推动合作达成。 2.负责 AI 项目的整体规划、进度安排和资源分配,确保项目按时、高质量交付,制定项目里程碑和关键节点,监控项目进度,及时调整项目计划以应对各种变化。 3.领导和管理跨职能项目团队,包括产品经理、开发人员、算法工程师、测试人员等,激励团队成员发挥最佳水平,协调内部团队与外部客户、合作伙伴之间的沟通和协作,确保各方需求得到满足。 4.定期向客户和上级领导汇报项目进展情况,与客户保持良好的沟通,及时反馈项目问题和解决方案,对项目中的问题进行快速响应和处理,确保项目顺利进行。 5.持续关注AI行业趋势,挖掘潜在商机,拓展项目合作范围,为产业基地的长期发展贡献力量。 岗位要求: 1.本科及以上学历,管理学、人工智能、计算机科学等相关专业优先。 2. 5年以上项目管理经验,熟悉项目管理流程和方法。有 AI 项目经验更佳; 3.了解人工智能相关技术,有一定招商对接经验,具备良好的市场洞察力和拓展能力。 4.具备强烈客户服务意识、良好的沟通协调能力、团队合作精神和创新能力,能够独立完成项目规划和执行工作。 5.具备 PMP(项目管理专业人士资格认证)等相关证书优先。 6.本岗位为东莞驻点岗位。 三、薪酬福利与职业发展: 我们提供竞争力的薪资待遇和福利待遇,包括期权激励、五险一金、带薪年假、节假日福利、健康体检、培训及晋升机会等。 同时,我们还为员工提供广阔的职业发展空间,鼓励员工在工作中不断成长和进步。 我们的团队充满活力、激情和创新精神,致力于打造一个开放包容、信任互助的工作环境,并定期举行各种团队建设活动,增强彼此之间的沟通和理解。想更多了解彩讯股份,欢迎进入:https://www.richinfo.cn
  • 15k-18k 经验1-3年 / 本科
    信息安全,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
  • 35k-70k 经验3-5年 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
  • 8k-16k 经验3-5年 / 本科
    数据服务,企业服务 / 不需要融资 / 150-500人
    岗位职责: 1.自动化、信息化等方面软硬件产品应用配置选型、技术方案设计、技术交流及汇报; 2.为公司营销中心商务人员提供技术支持,完成自动化、信息化项目投标技术文件编写; 任职条件: 1.计算机、自动化相关专业本科及以上学历,自动化、信息化等相关行业3年以上工作经验,年龄40周岁以下; 2.熟悉售前技术支持工作流程,熟悉WORD及PPT文稿编写,有一定文字功底; 3.了解燃气、水务、石油化工、能源等行业工艺,有上述行业相关技术岗位从业经历者优先; 4.有自动化、信息化、数字化、物联网等方面项目设计、售前技术支持、设计院所相关工作经历者优先。
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
  • 18k-25k 经验10年以上 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    "高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
  • 30k-45k·14薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商流量域数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商流量域数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商流量域数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.4年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等); 6.负责过大型数据平台或数据仓库设计优先; 7.熟悉Python/Java/Shell其中一种语言; 8.具备用增、ABT相关经验的加分;
  • 25k-50k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
  • 15k-22k 经验不限 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 20k-40k 经验3-5年 / 硕士
    工具类产品 / 上市公司 / 2000人以上
    岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
  • 25k-35k 经验5-10年 / 本科
    居住服务 / C轮 / 2000人以上
    工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先