-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
遴选笔试科目讲师(案例分析、公文写作、议论文写作、政策理论、时政热点) 招聘条件: 1.参加过中央或者省直机关遴选考试,且中央遴选的分数不低于75分,省直遴选的分数能够达到报考岗位的进面分数线(需附带佐证材料)。 2.对各级遴选的考情有较为全面、深入的了解,且有较为成熟的考情搜集、分析能力。 3.能够独立撰写遴选套卷的解析。 4.能够独立命制所讲模块科目的模拟题及评分细则。 5.能够系统、独立对所讲模块的知识进行备课,并进行清晰、条理地讲授。 6.配合度高,参与工作的时间较为充沛。 7.具备相对丰富的遴选授课经验(不作为必要条件)。 招聘流程: 筛选简历→撰写套卷解析→命制所讲模块科目的模拟卷→试讲课程(约2小时) 薪酬待遇: 平均税前5000-8000/月,按劳取酬,多劳多得,上不封顶; 薪酬构成:由教学和教研两部分工作报酬构成。 简历内容:应聘人员需在简历中明确如下内容:①目前所在的单位级别和性质,如省级政法系统、市级党委综合部门等。②参加遴选考试的笔试分数、入围面试等情况。③遴选教学的经历(如有)。
-
职位职责: 1、学习课程产品设计与开发:结合汽车行业和客户需求,进行学习课程产品课程体系的规划与设计,负责各类课程的内容编写、制作与审核,包括但不限于教材、课件、案例、考题等; 2、培训交付设计:探索和创新适合不同内容和学员群体的培训交付形式,提升教学质量和学员参与度;设计并制定课程的教学策略和教学活动,参与组织课程研发工作坊、讲师TTT及认证等,提供教学指导和建议; 3、团队协作与沟通:与交付团队、行业专家、策略运营团队等密切合作,共同完成课程开发项目,确保课程的质量和进度符合要求;收集各方反馈意见,对课程进行持续改进和优化,不断提升课程的满意度和口碑。 职位要求: 1、本科及以上学历,具有3年以上课程开发工作经验,有知识付费类型的学习课程产品开车经验者优先; 2、熟悉课程开发流程和方法,具备独立承担课程开发项目的能力; 3、熟练掌握课程设计工具和软件,具有良好的文字表达能力和课件制作能力; 4、具备创新思维和团队合作精神,能够积极主动地推动课程开发工作的开展; 5、具有较强的学习能力和适应能力,能够快速掌握汽车行业的知识和新技能。
-
岗位职责: 1. 参与数据中台的设计与开发,解决海量数据面临的挑战; 2. 负责Flink/ES/clickhouse/hadoop的功能、性能和扩展,参与产品需求讨论、技术方案确定,解决并实现业务需求; 3. 参与数据中台组件选型搭建和组件优化,提升平台的数据接入、数据治理、数据分析、数据服务能力,并提升整体系统的性能及稳定性。 任职要求: 1. 本科以上学历,2年以上互联网大数据处理经验; 2. 熟悉Linux操作系统,熟悉Java、Scala开发常用语言框架,有扎实的Java基础及良好的编码能力; 3. 熟悉大数据开源技术,包含(不限于)Hadoop/Flink/Spark/Kafka/Es分布式框架/计算/存储/检索等相关技术; 4. 了解大数据行业解决方案应用架构,有大型分布式高并发、高负载、高可用性系统设计开发经验优先,有海量数据下开发及组件优化相关经验者优先 5. 具有高度的抽象设计能力,善于思考,能独立分析和解决问题,能独立了解数据需求,并可以转化成分析产品设计并实现; 6、责任心强,具备良好的团队合作精神和较强的学习能力。 加分项: 1.有过大型日志处理系统的开发经验者优先 2.网络&数据安全相关经验优先
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
工作职责: 1、负责大数据解决方案规划,与产品体系、目标客户深入沟通引导,推动方案落地实施; 2、负责数据治理解决方案制定和推动实施,包括:数据标准化制定和落标、数据质量管理、生命周期管理等; 3、负责核心客户项目的规划方案和需求支持,取得阶段性成果,并对项目成果进行包装和分享; 4、深入研究竞品和客户诉求,给予产品迭代和项目规划建议,注重市场驱动、数据驱动; 5、与公司产品部门、交付部门等多部门紧密协作,协同客户推动企业数据向资产化、资本化发展。 任职条件: 1、5年以上大数据工作经验,有较好的技术功底,本科及以上学历,计算机、电子、通信类相关专业毕业; 2、具备丰富的大数据解决方案包装和宣传推广经验,获得核心客户、协同部门认可,体现价值; 3、具备较强的执行力及抗压性,具备良好的团队沟通能力、团队合作精神及项目管理能力,适应一定频率的短差; 4、具备较强的问题分析能力、判断能力及独立思考能力,对新技术、新产品、新需求感觉敏锐,关注数据产品发展趋势; 5、有以下工作经验优先:运营商大数据项目经验、数据治理项目经验、大数据基础组件实际使用经验。
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
工作职责 1、 负责前沿运营工具产品的日常运维工作,包括系统的运行监控、值班oncall、事件响应及处理、用户服务请求,从业务操作、系统功能特性、接口逻辑等运用角度,对问题进行诊断及跟进解决; 2、 负责运维主动预防工作,从应用系统架构、监控、容量、性能等方面进行分析以提前发现隐患问题,并推动优化解决,不断提高系统运行稳定性; 3、 负责应用系统重大故障快速诊断及解决,跟进及推动故障改进措施实施;制定系统运行应急方案,并使用应急预案优先恢复应用系统; 4、 负责与业务部门交互沟通,协调研发部门、基础架构部门完成运维需求交付,并提供运维服务报告。 任职要求 1、计算机相关专业本科及以上学历; 2、具备很强的ownership、团队协作意识,善于主动思考与自我驱动,很好的技术敏感度和风险识别能力,能承受工作压力; 3、两年及以上应用系统运维或基础架构运维经验,熟悉IT运维相关工作,对监控工具、自动化运维等技术领域有较深了解,对监控方法有较好的理论基础; 4、对操作系统、数据库、中间件、网络、云平台、容器化等一个或多个技术领域有一定运维经验,能够从技术的角度分析异常; 5、良好的系统分析、解决问题的能力,具备清晰的逻辑思维和推理能力,较强的工作推动力;良好的沟通和表达能力; 6、熟悉以下几种技术中的两种或以上:Linux/Unix基本维护和操作,python/perl等脚本语言,Hadoop、Druid、Clickhouse等大数据组件运维,Java应用平台架构,数据库性能优化技术。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
岗位职责: 1、了解并熟练掌握本部门一对一课程产品的运营操作及运营流程; 2、完成产品的售前准备、售中调整各项工作,并对相关数据进行监控,定期进行数据汇总和分析; 3、受理一对一产品服务期内出现的相关问题,并协助各部门妥善处理; 4、定期归纳总结、提交产品的更新优化方案。 任职要求: 1、**本科及以上学历; 2、熟练使用各类办公软件,Excel操作精通; 3、具有良好地沟通、学习应变能力,良好的团队合作意识和创新意识; 4、工作认真、细致、积极主动责任心强,具备一定抗压能力; 5、具有培训行业相关工作经验或独立产品运营经验者优先。
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
岗位职责: (1)负责民生卡大数据管理、分析、挖掘,开展相关数据应用建模; (2)制定相关数据标准,包括元数据、数据质量、数据标准和流程管理等; (3)负责数据分析、加工、清洗、处理程序的开发,数据治理技术优化及开发; (4)通过技术手段,提升数据链路分析能力,维护血缘准确性、协助跟进日常数据质量问题; (5)对业务部门的数据分析需求给予实现与支持; (6)负责领导交办的其他工作。 任职资格: (1)计算机相关专业本科及以上学历,3年以上大数据开发工作经验; (2)熟练掌握Hadoop、Spark、Kafka等大数据处理技术和工具; (3)熟悉SQL,具备数据库设计、优化和性能调优能力; (4)熟悉Java或Python等至少一种编程语言,具备良好的编程习惯和代码规范; (5)具备良好的问题分析和解决能力,能独立承担项目开发任务; (6)具备良好的沟通能力和团队协作精神,能适应高强度的工作压力; (7)优秀的学习能力和创新意识,对大数据领域有浓厚的兴趣和热情。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。