-
15k-24k·13薪 经验3-5年 / 本科旅游|出行 / D轮及以上 / 500-2000人Web 前端工程师(Insurance) 工作职责: 1. 负责Insurance业务C端Web/Admin/Merchant 研发工作; 2. 深入了解业务并结合旅游电商场景,撰写需求的技术方案; 3. 根据视觉稿与交互稿,编写高质量的HTML、CSS、JavaScript代码; 4. 负责性能优化、跨浏览器兼容性调试、A/B Test、改善用户体验等工作; 5. 与设计、产品、后端开发保持紧密协作,完成产品的迭代开发、维护以及优化; 任职要求: 1. 本科计算机相关专业,3年以上前端开发经验; 2. 熟悉ES6\Html5\Css3\TypeScript等语言及特性,熟悉Vue/React /jQuery等常用前端类库、框架的设计原理; 3. 熟悉基于 Node 的工具链体系(Gulp/Webpack/Babel等),至少熟悉一门Web服务开发语言(如Node/Java/Python/Go),了解Web Server 原理,熟悉常用设计模式; 4. 有一定的前端模块化、工程化开发经验,能利用自身技术能力提升团队研发效率,善于和各种背景的人合作; 5. 积极学习和探索新技术,乐于分享,善于总结归纳沉淀,利用技术赋能业务;6. 具备良好的沟通能力,团队合作意识和解决问题的能力,能够快速定位和解决问题; 加分项: 1. 有全栈开发经验者优先; 2. 高质量的Blog或优秀的开源项目; 3. 对用户体验有深入的理解和研究,能够提出创新的UI/UX方案; 4. 熟悉移动端开发,有H5、React Native、Flutter等经验者优先; 5. 具备良好的英文读写能力。
-
美团的使命是“帮大家吃得更好,生活更好”,公司聚焦“零售 + 科技”战略,和广大商户与各类合作伙伴一起,努力为消费者提供品质生活,推动商品零售和服务零售在需求侧和供给侧的数字化转型。 2018年9月20日,美团正式在港交所挂牌上市。美团将始终坚持以客户为中心,不断加大在科技研发方面的投入,更好承担社会责任,更多创造社会价值,与广大合作伙伴一起发展共赢。 岗位职责 1. 负责面向商家、商品、供应链、CRM、数据工具等业务前端研发,负责产品需求分析、方案设计以及核心功能实现; 2. 负责完善项目性能与可用性建设相关工作,提升交互体验,夯实业务监控,保障系统长期稳定; 3. 负责前端框架、工程化以及相关工具的建设与维护,持续提升研发效率; 岗位基本需求 1. 本科及以上学历,计算机及相关专业; 2. 1年以上前端开发经验,主导过大型前端应用系统建设; 3. 具有扎实的计算机科学功底,精通Javascript,了解webkit、JSCore与渲染引擎原理,具有较好的Web应用、网络等方面的编程能力; 4. 熟悉主流开源框架(如React)的原理与实现,并能熟练使用; 5. 熟悉跨端框架、微前端架构与工程化的原理与实现; 6. 熟悉低代码体系,并有相关实践经验; 7. 前沿技术研究,承担重点、难点技术课题解决; 8. 具备良好的团队协作沟通能力,有较强的逻辑思维能力,善于分析、归纳、解决问题,持续学习和总结,自我迭代; 具备以下者优先 1. 熟悉商家、商品、CRM、数据工具的核心架构或核心链路业务; 2. 主导并推动过跨业务、跨端项目协同工作; 3. 有国际化业务相关经验; 岗位亮点 1. 能全面参与国际化业务拓展全球的建设过程,可了解国际上业务全貌及系统架构演进; 2. 如果你对世界充满好奇心,在这里,你会接触到不同的国家、语言和文化,开拓国际视野,探索异域市场; 3. 如果你富有冒险精神,在这里,一个个陌生的国家等待你的开发,一个个全新的关卡等待你的挑战; 4. 如果你渴望快速成长,在这里,你可以参与业务全球拓展的过程,不断解锁新技能,持续获得成就感; 5. 我们的目标是星辰大海,期待有想法、敢于冒险、渴望快速成长的你加入! 让我们一同见证美团国际化的征程!
-
工作职责: 1、负责互联网保险产品前端展现,官网和活动页面的研发和运营; 2、与UI设计、前端制作及后台开发人员协作,高效优质完成产品界面和功能的实现; 3、持续优化web前端呈现,提升用户体验; 4、完善前端工具和框架,以及新技术调研和落地。 任职资格: 1、本科以上学历,1-3年前端开发工作经验,优秀应届生可放宽工作年限; 2、负责过移动端前端项目,熟悉W3C标准,精通HTML5/JavaScript/CSS3/nodejs等Web开发技术;熟悉主流JavaScript框架和库,精通至少一种MVVM框架(如angularjs、reactjs、vuejs),有框架优化能力; 3、掌握HTTP(S)协议,了解前端常用的构建工具,webpack、vite 等;熟悉git,有良好的代码习惯; 4、对前端新技术有敏锐的洞察力,学习能力强,能快速掌握新技术; 5、对web性能优化,安全有一定的见解和相关实践;注重用户体验,有产品意识; 6、工作踏实认真、仔细、责任心强,具备良好的学习能力、自我管理能力、热情敬业; 7、有后端开发经验者优先(如:nodejs/java/GO),熟悉微信公众号开发或微信小程序开发优先。
-
职位职责: 1、负责生活服务业务效率平台等方向大数据应用能力建设,包含数据专题分析、数据服务、数据诊断等; 2、针对业务场景梳理数据信息,提出一站式的数据解决方案; 3、负责数据产品架构设计和后端开发,设计和实现Web后端和关键数据服务; 4、负责数据产品的功能迭代和性能优化,提高效率,优化流程。 职位要求: 1、熟悉互联网产品和服务的开发过程,熟悉后端技术架构,具备良好的系统设计能力; 2、扎实的计算机基础,熟悉Golang语言优先,对技术有热情,愿意不断尝试新技术和业务挑战; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、熟练使用ClickHouse、Presto、Doris等MPP查询引擎,具备数据组件化开发的能力,具备较好的数据分析意识,有良好的协作能力。
-
我们正在寻找一群 Web 前端开发工程师,他们致力于打造业界领先的 AIGC 产品。我们提供业界有竞争力的薪资和灵活透明的工作氛围,团队均来自海内外知名企业或高水平大学。如果您正在寻找这样的创业氛围或团队,欢迎加入我们。 主要职责 1、负责 AIGC Web 产品的前端设计、技术架构升级、性能优化、迭代维护 2、负责 AIGC SEO 页面和 APP 落地页的开发方案,提升开发效率和体验 3、参与规划与制定 AIGC Web 前端整体发展计划与基础建设 职位要求 1、计算机相关专业本科及以上学历,拥有 5 年以上前端开发经验 2、熟练掌握 JavaScript,CSS,HTML,DOM等前端技术 3、对主流前端框架( React )有深入应用并深入理解其设计原理 4、至少了解 Node、Python、Go、Java 等一门后端开发语言 5、对用户体验、交互操作流程,及用户需求有一定了解 6、有很强的学习能力,有主动性和上进心,能承担压力,团队合作能力强 7、具有良好的沟通能力和团队合作精神 8、优秀的分析问题和解决问题的能力,对解决具有挑战性的问题充满激情
-
职位职责: 1、 负责相关业务大数据项目整体架构规划; 2、 负责指导工程师进行技术验证与实现,关键技术问题的攻关,解决项目开发过程中的技术难题; 3、 负责项目对外技术沟通,具有较强的沟通,表达和文案能力; 4、 根据公司项目和业务发展特点,负责研究相关大数据前沿技术。 职位要求: 1、 熟练使用Hadoop、Hive、spark,flink等大数据框架,熟悉SQL、Java、Python等编程语言; 2、 有PB级大数据处理实战经验,熟悉整个大数据的完整处理流程,优秀的问题解决能力; 3、 善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、 6年以上数据仓库或大数据开发,丰富的实时或者离线数据体系建设经验。
-
"高级: 1、熟悉SQL语言,熟练掌握Hive、MPPDB等大数据开发技能,具备3年以上关系型、分布式数据库设计和开发经验; 2、具有较强的团队管理能力、沟通能力、协调能力。工作积极主动,责任心强。 3、熟悉常用ETL工具,比如sqoop和kettle。 4、熟悉linux操作系统命令,有编写shell脚本和perl脚本的能力. 5、有银行系统开发经验者优先。"
-
工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
-
岗位职责: 1.独立完成公司产品的Web、小程序的前端开发; 2.按照前端开发流程和规范进行开发、编写开发文档; 3.与产品、设计、后端、测试等团队紧密配合,按时高质量完成开发任务; 4.参与前端需求评审、技术方案设计,持续优化用户体验,保证系统稳定性和兼容性。 任职资格: 1.计算机相关专业*****本科及以上学历,能熟练阅读英文技术文档; 2.两年及以上前端开发经验,熟悉ES6、CSS3、HTML5等前端技术; 3.熟练掌握React/Vue等前端主流框架,并对其原理有深入理解; 4.熟悉Vite、webpack等前端构建工具; 5.掌握前端安全性原则,理解Web领域内场景的安全问题及防控方式; 6.有良好的沟通能力和较强的逻辑思维,能独立解决技术难题,善于分析、归纳、总结。
-
【岗位职责】 1、负责社区业务需求开发,攻克技术难题,完善工程建设并持续优化; 2、设计团队技术发展路径,沉淀团队技术知识体系; 3、进行前端前沿技术的探索,敏锐准确的评估新技术,并有效落地; 4、营造良好的团队氛围,促进团队成长。 【任职要求】 1、软件工程、计算机、通信或相关专业本科及以上学历,6年以上的相关工作经验,行业背景不限,大厂开发经验优先; 2、前端基础知识掌握牢固,能熟练使用 JavaScript && CSS && HTML,熟悉TypeScript,了解业界先进的概念和开发方式; 3、精通Vue、React、Angular一种,并有相关大型项目经验,熟悉源码和框架原理的优先; 4、熟悉Node.js,有Node.js开发经验,了解后端技术优先; 5、有使用vite、webpack等工具进行前端工程化经验; 6、熟悉常见性能优化手段,熟悉常见的Web安全问题以及防御措施; 7、具备良好的编程习惯,遵循代码规范,熟悉常用设计模式; 8、具备较强的自主学习能力,富有责任心,积极主动,有良好沟通能力以及团队协作精神,能够适当承担工作压力; 9、理解技术和业务方向,为技术决策提供支持和建议,热爱技术,喜欢钻研技术,对前端开发工作富有激情。 【职位诱惑】 1、上市公司,公司发展迅速,腾讯系,六险一金; 2、团队氛围好,有助于提升自身实力,发展空间巨大; 3、各种员工娱乐运动休闲协会+节日定制礼物。
-
工作内容: 1、负责自如大数据平台组件的运维 2、负责自如一站式大数据开发平台的建设 任职要求: 1、大学本科及以上学历,计算机或相关专业; 2、精通clichouse、hbase运维及封装 3、熟练掌握haoop、atlas、ranger、hive、flink、夜莺监控等大数据组件的运维,对大数据组件具备源码改造能力 4、熟练掌握Java、Python、shell,熟悉springboot; 5、有大数据项目开源社区贡献者优先
-
【必备技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 【重要技能】1、熟悉大数据研发生态,有基于hive、hbase做研发的工作经验等。 2、熟悉Oracle/mysql等数据库。 3、能读懂java、python、shell代码 4、3年左右开发经验。
-
工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
1. 熟悉Hadoop生态常用开源组件(如hdfs、hive、spark、flink、doris)的问题排查、性能和管理优化、部署升级、扩容缩容等,有过相关运维管理平台或自动化部署系统开发经验者优先; 2. 熟练使用shell、python、Java,有相关开发经验;熟悉大数据组件源码或有大数据开源组件开发经验者优先; 3. 良好的沟通合作能力,热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心