-
职位职责: 1、负责风控数据链路开发工作,基于公司基础组件搭建风控数据计算平台,参与在线/近线/离线计算能力建设; 2、参与数据治理工作,提升数据易用性及数据质量; 3、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、丰富的大数据生态系统开发经验,熟悉Spark、Flink、Clickhouse、Hadoop等技术; 2、4年以上大数据研发经历,计算机相关专业本科及以上学历; 3、精通Go/C++/Java等至少一门编程语言,熟练运用各种常用算法和数据结构,有独立实现能力; 4、具备优秀的逻辑思维能力,对解决挑战性问题充满热情,善于解决问题和分析问题; 5、熟悉流式计算,有大流量系统开发经验者优先。
-
职位职责: 1、负责字节跳动大数据平台高可用性保障,协同大数据各组件团队制定稳定性标准、明确职责边界、推进稳定性项目落地; 2、负责运维流程标准建设和相应工具能力建设,包括稳定性目标管理、监控诊断运维能力、容灾应急方案等; 3、负责推进大数据组件风险治理和事故管理,降低平台事故、提升运维效率、降低运维成本。 职位要求: 1、计算机相关专业本科及以上学历; 2、具备大数据架构系统全景知识,熟悉HDFS、Yarn、Spark等基础组件原理,了解数据生产加工链路过程; 3、具备扎实的平台运维体系知识,熟悉大数据组件常见故障和运维流程,对大数据稳定性保障有见解和实践经验; 4、具备良好的项目推动能力、沟通能力和团队合作精神,能够独立解决问题并承担压力; 5、有大数据平台SRE经验优先,有运维平台工具建设经验优先; 6、有国际化经验或者英语能力为加分项。
-
1、负责海外多国(产品、运营、商服、销售等)招聘; 2、搜集行业人才信息,了解目标人才分布,输出人才数据报告; 3、负责端到端的招聘流程管理,深刻理解业务,把握招聘需求,快速搭建优秀人才梯队 4、负责中高端人才的寻访、面试、offer、入职跟进等全流程管理; 5、定期海外招聘渠道的搭建和管理,负责海外雇主品牌的建设,主要负责欧美及中东等市场的人员招募。
-
职位描述: 1. 从事工业数据的采集、传输、分析、集成等技术研究及开发应用; 2. 负责但不限于生产制造管理主题领域的指标体系、数据模型和治理逻辑设计,从业务应用的视角,构建数据驱动的运营管理平台方案; 3. 作为大数据专家角色,充分与内外部合作,负责项目数据类的方案架构设计和技术规划并确保最终落地, 4. 牵头项目关键架构设计和组织技术难点攻关; 5. 参与工业数据标准制订,并且推动团队应用标准; 任职要求 1. 计算机、软件工程及相关专业,本科及以上学历,至少3年以上大数据项目相关工作经验; 2. 掌握Hadoop、HBase、Kafka、Hive、Flink、Spark、datav等组件中至少2项的工作原理,熟悉Hadoop生态系统; 3. 精通Java,Python中的一种或多种语言,熟练掌握海量数据分析的相关模型、算法,有制造行业大数据分析模型经验者优先; 4. 熟悉数据库开发,精通面向对象设计、设计模式,熟练MySQL、Redis等数据库; 5. 有指标系统和数据可视化系统开发经验优先; 7. 具备开发项目管理经验。
-
职责描述: 1. 负责游戏产品研发体系的各职位的招聘甄选工作,与业务部门对接 2. 独立完成招聘信息发布、人才简历搜索、面试、测评、薪酬谈判、Offer发放、背景调查等相关工作 3. 其他人力资源相关工作 任职要求: 1. **本科以上学历,985/211院校优先考虑 2. 3年以上游戏行业招聘工作经验 3. 积极主动,责任心强,具备良好的沟通能力及抗压能力 4. 团队协作能力强,认同企业文化
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
工作职责: 1. 负责人员的招聘工作; 2. 负责部门的培训、绩效管理、员工关系等工作,协助业务部门提升组织绩效; 3. 协助推动公司、人力资源中心相关制度、流程和管理项目在所支持部门的执行; 4. 通过员工沟通管理,有效管理员工关系,提升员工敬业度,强化和传承公司价值观; 5. 部门安排的其它支持工作。 任职资格: 1. 三年以上IT行业招聘或HRBP经验,有销售招聘经验优先; 2. **本科及以上学历(硬性条件); 3. 对人力资源管理各模块有较为系统完整的理解,在其中一个模块有深入实践,熟悉劳动法律法规; 4. 工作积极主动,强成就动机、推动力、责任心和抗压能力; 5. 良好的学习能力和理解力;对数据敏感,有较好的分析能力;
-
职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
-
岗位职责: 1.负责与业务/用人主管需求对焦,确定岗位需求和寻访方向; 2.负责招聘全流程的跟进:寻访、甄选,评估候选人信息; 3.能根据业务重点,梳理对应的寻访目标公司,构建人才地图,完善人才储备,提升招聘效率; 4.能够梳理,分析和优化招聘流程,提升候选人体验,有效管理招聘渠道,并能参与招聘体系建设及优化; 5.负责招聘相关的项目事宜,并能做好项目推动和协同工作。 岗位基本要求: 1、本科以上学历,1年互联网招聘经验; 2、专业能力上,对人才的选和用有深入理解,对人才的育励汰有一定的了解,能够把人才选用和后续工作结合起来; 3、通用能力上,具备良好的沟通能力和项目管理能力(含进程推进能力);拥有良好的客户需求沟通和管理能力; 4、具备多任务同时进行的能力;和业务/用人主管,在交付节奏上,能够达成共识。
-
岗位职责 1. 选择并且维护招聘渠道,沟通、邀约及面试候选人、进行薪资谈判、安排候选人入职; 2. 协助雇主品牌建设工作,拓展和更新有关宣传渠道; 3. 配合开展行业人才MAPPING研究工作。 任职要求 1. 23届及之后毕业的本科或研究生在校学生,有人力相关实习经验者优先; 2. 可保证每周实习至少4天,实习周期至少3个月; 3. 良好的沟通能力,逻辑思路清晰; 4. 喜欢挑战性的工作,性格开朗,具备较强的自我驱动力。
-
核心本地商业(Core ***** Commerce)是美团“零售+科技”战略的重要载体,涵盖了到店餐饮、服务零售、酒店旅行、外卖、履约配送、闪购、医药健康等多个业务,覆盖了超过200个消费场景,致力于通过“随时随地”的商品和服务,满足消费者的多样性需求,帮大家吃得更好,生活更好。核心本地商业扎根本地消费,围绕消费者的“吃、住、行、游、购、娱”进行深度创新,引领发展了即时零售、团购等多种消费业态,并在全国范围内广泛投资发展本地供给、履约平台等设施,助力创造产业、带动就业。基于多年的持续投入,核心本地商业打造了连接全国超过一千万中小微企业的服务体系,以及全球最大的即时配送网络。由核心本地商业所推行的30分钟“万物到家”体系,已覆盖全国2800多个城镇,为数亿用户提供优质的商品与服务。发展过程中,核心本地商业有效助力商超、连锁、本地小店等各类实体经济主体扩大交易规模、降低交易成本。截至目前,核心本地商业日均创造订单量数千万笔,助力千万商户实现了高质量发展。未来,核心本地商业将继续践行美团“零售+科技”战略,通过更大的投资,更多的技术创新,支持、培育消费新业态,为促进消费、服务民生、带动就业作出力所能及的贡献。欢迎优秀的你加入核心本地商业,我们携手助力市场繁荣,为用户创造更好的消费体验。 岗位职责 1.负责客服领域的招聘工作,包括招聘计划制定、候选人筛选、面试安排等。 2.负责梳理客服领域的招聘流程,优化招聘效率和质量。 3.负责客服行业人才市场的对标研究,并帮助用人部门了解行业动态。 4.负责与业务部门沟通合作,了解业务需求,制定相应的招聘策略。 岗位基本需求 1.大学本科及以上学历,人力资源管理、心理学等相关专业优先。 2.具有3年以上客服领域招聘经验,熟悉客服行业特点和人才需求。 3.具有较强的沟通协调能力,能够有效协调相关资源并完成招聘目标。 4.具有良好的人际关系和协作意识,能够与候选人建立良好的沟通和合作关系。 岗位亮点 1.有机会在客服领域招聘方面展示专业能力和领导才华。 2.可以参与制定客服团队的人才发展规划和战略规划,提升整体团队素质。 3.公司提供良好的职业发展空间和晋升机会,能够获得丰厚的薪酬福利和职业培训机会。
-
技能要求: Hive,Hadoop,Spark,kafka,Python,数据架构 技能要求: 数据分析,Web安全,数据处理,Hive 岗位职责: 1.负责基于Hadoop/Spark/Hbase/Kafka等平台的批量处理和实时计算开发; 2.负责公司大数据平台数据模型的设计及开发,包括数据需求的沟通、离线/实时模型设计与开发、质量管理监控等工作; 3.负责大数据数据中台开发。负责大数据端与web端的对接; 4.负责对接各事业部及其他团队相关技术规划及管理工作。 任职资格: 1.本科及以上学历,计算机及相关理工科专业; 2.5年及以上相关工作经验,具有扎实的数据结构与算法的理论知识; 3.熟练使用shell、perl、 python、Java、C、C++等至少2门脚本语言; 4.了解Hadoop、Hbase、 Kafka、 Hive、 Spark、 ES、 Storm等组件的工作原理; 5.近3年从事 大数据研发、大数据处理技术架构、数据中心性能评估设计研究等相关岗位; 6.有较强的自学能力、钻研精神和动手能力,具有良好的逻辑思维能力、沟通能力和团队协作能力,做事认真、踏实、负责; 7.有团队管理及人员培养经验优先。
-
工作职责: 1、从事人工智能领域研究工作,包括不限于行业应用的跟踪分析与研判工作; 2、开展公司人工智能技术的应用研究、融合规划及材料撰写工作; 3、负责智能项目管理工作,进行智能产品规划与设计工作; 4、完成其他相关重点工作。 任职资格: 1、硕士研究生或以上学历; 2、具有较强文字功底及逻辑思维能力;具有优秀的表达、沟通与协调能力; 3、有1年以上咨询研究工作经验,有咨询公司、第三方评测机构工作经验者优先; 4、喜欢跟踪和研究分析人工智能与保险领域最新动态,对人工智能、金融保险行业有一定了解。
-
一、职位基本信息 职位名称:大数据与 AI 产品行销经理 二、职位概述 您将作为连接产品(大数据与 AI 产品)、市场与客户的桥梁,全 面推动亚信数智一体化平台在运营商及各垂直行业的广泛应用与加 速落地,助力企业实现数字化转型。 三、主要职责 产品优势宣贯与市场推广 深入理解亚信大数据与 AI 产品的核心优势与技术能力,对各前台 事业部、合作伙伴及最终客户进行产品宣讲与培训,确保产品价值得 到广泛认知与认可。 制定并执行全面的市场推广策略,包括线上线下活动、行业展会、 研讨会等,提升产品知名度与品牌形象,吸引潜在客户关注。 推动产品加速落地 与各前台事业部紧密合作,深入了解客户需求与痛点,定制化产 品解决方案,推动产品在运营商及各垂直行业的快速应用与落地。 系统性负责产品从商机挖掘到订单签订的端到端流程管理,包括 需求收集、方案制定、商务谈判、合同签订等,确保产品从研发侧快 速走向客户侧,实现商业价值。 客户交流与商机拓展 负责编写面向客户的产品布道资料,包括产品白皮书、案例分享、 技术文档等,为销售与售前团队提供有力支持。 与销售、售前工程师共同进行客户拜访与交流,深入了解客户需 求,挖掘潜在商机,促进业务合作与拓展。 市场反馈与产品优化 定期收集客户反馈与市场动态,对产品性能、功能、用户体验等 方面进行评估与分析,为产品迭代与优化提供数据支持。 与研发团队保持密切沟通,将市场需求与客户反馈转化为具体的 产品改进建议,推动产品持续升级与创新。 四、任职要求 本科及以上学历,计算机科学、市场营销或相关领域背景优先。 至少 5 年 IT 产品行销经验,熟悉大数据与 AI 产品及其市场趋势。 具备出色的市场分析与策划能力,能够独立完成产品市场推广与 品牌建设。 优秀的沟通与团队协作能力,能够与各前台事业部、合作伙伴及 客户建立良好关系。 具备较强的学习能力和创新意识,能够快速适应市场变化与产品 迭代。
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。