-
工作职责: 1、负责集团数据管理体系的规划及建设,从整个体系流程、制度、工具、平台等所有能力上保障公司数据相关工作的稳定、安全、可靠、合规。 2、负责现有大数据工具平台的规划建设、架构设计,并在工作中根据业务发展不断提升团队、平台的水平和效率。 3、基于数据驱动,统筹公司级数据产品、数据治理和数据资产管理等相关工作,为业务提供数据价值。 4、负责团队部门的日常技术管理工作以及部门人员的统筹规划,加强团队成员培养和技能提升。 5、深入了解业务,对平台酒店、零售大数据进行分析,寻找潜在的生意机会,并实现新增收益; 岗位要求: 1、**本科及以上学历,985/211学历,计算机/软件工程相关专业毕业,至少5年以上大数据管理经验; 2、熟练掌握数据体系建设的各个环节,深入理解数据质量管理、数据标准管理、企业级数据建模、主数据管理等方法。 3、熟悉大数据生态Hadoop、Hive、HBase、Spark、Storm、Flink等开源平台。 4、具备数据方案和架构设计能力-非PPT架构。 5、具有较强的技术管理能力与实践经验。
-
大数据销售 1. 负责中国移动客户大数据/网络IT业务市场拓展工作;或负责基于大数据解决 方案市场行业客户; 2. 根据公司业务发展需要、结合公司产品特点及市场状况,确定产品销售策略及业务拓展计划,开拓新的商业机会并销售创新产品和服务; 3. 服务和支持现有行业客户和最终用户,了解客户痛点,熟悉客户需求,制作以客户需求为导向的销售方案,完成业务谈判、确保业绩达成; 4. 负责渠道建设、渠道合作,拓展新客户关系; 5. 建立顺畅的客户沟通,落实订单签署和项目回款,创建长期、良好、稳固的客户关系; 6. 客户项目跟进管理,并协调内、外部资源为项目成功服务。 任职条件: 1. 本科及以上学历,计算机相关专业; 2. 5年以上面向中国移动客户销售经验;或某行业销售经验积累超过5年; 3. 熟悉中国移动客户业务,能独立定制客户方案,并积极寻求让客户满意的策略; 4. 优秀的人际交往和协调能力,高层沟通的经验和解决问题的能力; 5. 极强的责任心、执行力,富有激情,能够承受较大的工作压力; 6. 具有广阔的视野,对行业发展有自己的理解,优秀的敬业精神和团队合作精神; 7. 具有较强的抗压能力。
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
岗位职责: 1、分析业务需求,建设数据库仓库,对业务部门提供数据支持; 2、参与数据源分析,完成大数据平台与各业务系统的数据对接; 3、完成基于大数据技术平台基础上的数据仓库设计和ETL开发; 4、调研相关技术,优化大数据开发流程,规划大数据平台应用。 任职标准: 1、3年以上数据仓库相关工作经验, 有互联网、电商行业数据仓库建设经验; 2、精通Hive-sql编写和优化,精通常用etl工具,至少熟悉java、python、shell等语言中一种; 3、精通大数据背景下数据仓库模型设计,熟练掌握OLAP的维度建模设计方法; 4、有数据平台(数据开发、治理、资产等)相关建设经验; 5、责任心强,有较强沟通能力和团队合作精神; 6、有spark streaming、flink等实时数据开发经验; 7、有统计学数学知识,海量数据处理、数据分析和挖掘经验者优先
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
工作职责: 1、负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2、负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3、负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4、深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5、与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1、5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2、具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3、具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4、具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5、有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
-
职位职责: 1. 负责抖音直播业务的离线与实时数据仓库的构建; 2. 负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3. 负责指标体系建设与维护; 4. 深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5. 参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6. 参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1. 熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2. 熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3. 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
一、职位职责: 1、全面负责用户&商品画像和标签平台的架构设计与核心研发,确保平台的高可用性和扩展性; 2、深入理解公司各重点产品及业务需求,通过数据挖掘和分析,发掘潜在价值点,制定画像平台的长期发展策略,拓展画像在多场景下的应用; 3、领导画像产品的持续优化,推动画像标签应用平台的建设和技术创新,确保其在市场中的竞争力和领先性; 4、与跨部门团队紧密合作,推动用户画像技术在公司内部和外部生态系统中的推广和应用,提升公司整体数据应用能力。 二、职位要求: 1、精通Java语言及其生态系统,具备5年以上相关开发经验,能够在复杂场景下提供高效、稳定的解决方案; 2、深刻理解分布式系统、缓存、消息队列等技术原理,具备大规模分布式系统的设计和优化经验; 3、计算机基础扎实,对技术有极高的热情,具备解决复杂技术难题的能力,并愿意持续学习和应用新技术,应对业务挑战; 4、深入掌握大数据常用开源框架,如Hadoop、HBase、Flink、Spark、ClickHouse、Doris、Flink等,具备大规模数据处理的实战经验; 5、具备丰富的用户画像、数据应用开发经验,能够从业务角度出发,设计和实施数据驱动的解决方案; 6、有出色的领导力和团队合作能力,能够带领团队共同实现目标,并推动团队的技术成长和发展。
-
岗位职责: 1. 参与公司分布式实时计算引擎的开发设计工作,满足毫秒级延迟、百万级吞吐的处理要求。 2. 参与实时计算管理平台的开发设计工作,为公司提供统一的实时应用开发管理平台和服务,提升应用开发的效率,降低运维成本。 3. 参与公司核心实时业务系统的架构设计,包括实时推荐/实时报表/实时数据交换等核心业务。 任职资格 1.计算机相关专业硕士,3年以上大数据开发相关经关经验 2.要求熟悉Flink/Spark等分布式处理引擎,熟练使用kafka/rocketmq等消息中间件。 3. 精通java/scala等编程语言,精通数据结构和算法。 4. 对技术有热情,通过技术和团队合作来解决业务上的挑战。
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。