-
平时可以阅读英文的计算机API文档,并且需要有一定的Java基础。对爬虫抓网页的工作内容感兴趣,如果不符合以上条件,请勿投递,谢谢。 工作职责: 1、IOS, Andriod APPs以及网站的逆向分析及漏洞挖掘,并对逆向数据进行采集抓取; 2、爬虫策略和防屏蔽规则,提升网页抓取的效率和质量; 3、有过Akamai,Perimeterx经验的优先; 任职需求: 1、应届毕业生,熟练掌握Java语言; 2、熟悉IDA、 JEB 、LLDB、JADX等常用逆向分析工具,具备逆向分析能力; 3、熟悉各种通用加解密算法,有一定的脱壳反混淆,反调试经验; 4、熟悉常见的Xposed hook技术,注入技术,常见安全产品绕过等技术; 5、做事有责任感,具有良好的逻辑思维,很强的执行力和自我驱动力。 【福利政策】 1、混合办公模式,根据工作年限每月可申请居家办公2-8天。 2、10天- 25天带薪年休假; 3、13薪及每年全员调薪,根据入职时间、工作表现和企业经营状况; 4、补充医疗保险及每年健康体检; 5、旅游补贴及公司团建; 6、每周供应2次免费午餐; 7、节假日礼品卡福利及节日下午茶供应。
-
25k-40k·14薪 经验5-10年 / 本科软件服务|咨询 / B轮 / 150-500人if (your_passions.includes(‘coding’)) { switch(your_stacks) { case ‘Typescript’: case ‘React’: case ‘Node.js’: case ‘micro frontend’: case ‘headless’: console.log(‘Join AfterShip’); break; } } 岗位职责 1、负责开发自动化营销 SaaS 工具的前端和产品交互功能,包括工作流自动化、Email 可视化编辑器和高性能渲染服务、AIGC 辅助营销等产品功能模块,以及前端性能优化等; 2、负责系统的需求分析、方案设计、代码开发与单元测试、项目管理,保证任务交付高质量和及时性; 3、负责 BFF、渲染服务等 Node.js 中间层的开发和维护,保证性能和稳定性; 4、负责编写相关的技术文档。 岗位要求 1、本科及以上学历,具备英语读写能力; 2、5 年及以上业务项目前端开发经验,精通 React 框架,熟练掌握 Webpack / Vite,能独立承担复杂项目的开发任务; 3、熟悉 TypeScript / Node.js / GraphQL 等,关注业界前沿技术; 4、熟练编写语义化的 HTML,具备前端安全防护意识。 加分项 1、有 Email 相关开发经验:例如客户端兼容性/Email performance 提升等; 2、有写 Blog 的习惯,活跃技术社区,参与开源项目等; 3、有代码洁癖,对代码精益求精,对技术有极客热情。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
负责为海外音乐项目搜索采集数据,为团队的海外运营提供决策支持(自有项目,非乙方)。 岗位职责∣Responsibilities: 1、熟练掌握Python,熟悉Linux开发环境; 2、负责设计和开发爬虫,精通海外网页(Youtube、Spotify、Google...)抓取原理及技术,从各种web页面、APP中获取目标信息; 3、解决技术疑难问题,包括各种反爬、压力控制等;提升网页抓取的效率和质量。有能力解决封账号、封IP、验证码识别、图像识别等问题,有能力解决复杂的反爬限制; 4、大规模爬虫系统的设计、数据REST API的设计、开发、维护、调优,第三方数据源的对接、预处理、入库; 5、分析结构化和非结构化数据,并对数据抓取、信息提取、去重、清洗;不限于使用代码规则类进行数据清理; 6、开发代码的维护更新,Linux服务器的维护,文档维护; 7、支持部门数据需求,包括但不限于搜索数据来源、数据清洗、数据挖掘、为团队提供决策支持; 履职要求∣Requirements: 1、大学本科及以上学历,计算机相关专业,基本的英语阅读能力; 2、耐心、细心,有较强的逻辑思考能力和良好的工作习惯,态度认真负责; 3、有三年及以上的爬虫、数据处理、数据分析经验,有大数据爬虫经验尤佳;有音乐行业经验优先; 4、熟练掌握Python,HTML,JS/CSS等技术;熟悉scrapy,feapder等爬虫框架,有分布式爬虫经验;熟悉正则、xpath等提取方法; 5、熟悉常见的反爬虫技术如文本混淆、验证码、加密破解,api限制等;精通网页抓取原理及技术,熟悉MySQL、Redis、Postgrep等;熟悉Internet基本协议 (如TCP/IP、HTTP等) ; 6、熟悉Linux环境,使用脚本开发维护Linux服务器; 7、具有良好的表达能力,团队合作能力;具有很强的责任心,乐于挑战,有较强的深入学习理解业务的意愿;
-
【岗位职责】: 1、负责设计和开发网络爬虫系统,完成关键信息的数据抽取、清洗、去重、分析等: 2、负责爬虫相关技术的研究和实现工作,比如APP破解、小程序破解、分布式爬虫、验证码破解、JS逆向反爬机制的研究等: 3、负责公司爬虫的核心算法以及策略优化,熟悉采集系统的调度策略: 4、设计爬虫策略和防屏蔽规则,提升网页抓取的效率和质量: 5、实时监控爬虫的进度和警报反馈,提升爬虫系统稳定性、可扩展性; 6、有良好的编码能力,逻辑思维缜密,能独立分析解决问题。 【任职要求】 1、本科及以上学历,计算机相关专业: 2、至少3年及以上爬虫经验: 3、精通Python语言,具有扎实的计算机基础和编程能力,熟悉常见的算法与数据结构,具有优秀的逻辑思维能力; 4、熟悉Mysql,redis,有过数据库调优和海量数据存储经验优先; 5、熟悉常见的反爬机制,并对反爬具有一定的应对措施策略且有一定研究: 6、熟悉APP逆向、JS逆向、验证码破解、图像识别等技术; 7、熟悉常用网络协议、数据存储和数据处理技术。 8、熟悉linux系统环境、命令,shell、python脚本编写; 9、熟悉常见爬虫框架(如Scrapy),有大规模爬虫系统开发经验; 10、有机票行业从业经验优先。
-
【任职要求】 1、熟悉html/css/xpath/ajax/xml等技术,熟悉HTTP传输协议,精通网页抓取原理和整合技术,熟悉正则表达式; 2、熟悉基于COOKIE等网站登录原理,JS逆向; 3、精通Python,熟悉django框架 4、熟悉MySQL 5、熟悉linux系统环境、命令,shell、python脚本编写 6、熟悉fiddler抓包工具的使用 7、熟悉Git版本管理工具 【教育背景及从业经验】 1、计算机相关专业,大学专科及以上; 2、一年以上python开发经验,三个以上爬虫项目经验 【加分项】 善于以用户场景视角,理解功能需求。 【公司项目介绍】 自主研发车险管理ToB SaaS平台,商用10年,在车险垂直领域市场占有率高。 新人入职,一对一技术培训。 【福利】 国家规定的所有带薪假期;社保五险;零食;年度旅游;地铁口; 【上班时间】 早9晚6,双休
-
工作内容: 1、通过编写新的爬虫脚本、通过修复已有爬虫脚本对网站数据进行爬取采集 2、对爬取的速度、质量负责。 3、对爬取回来的数据进行清洗(去重、缺失值、空值、乱码异常值等处理),并且进行数据存储 工作要求: 1、会使用爬虫、能独立编写爬虫脚本爬取数据 2、能够解决爬取数据过程中的反爬机制(JS逆向、验证码、封IP等) 3、能够处理千万级以上数据,保证处理存储的有效性(速度+质量) 4、能接受应届生、勤奋好学、吃苦耐劳
-
负责为海外音乐项目搜索采集数据,为团队的海外运营提供决策支持(自有项目,非乙方)。 岗位职责∣Responsibilities: 1、熟练掌握Python,熟悉Linux开发环境; 2、负责设计和开发爬虫,精通海外网页(Youtube、Spotify、Google...)抓取原理及技术,从各种web页面、APP中获取目标信息; 3、负责爬虫团队的日常工作安排及管理。 4、解决技术疑难问题,包括各种反爬、压力控制等,提升网页抓取的效率和质量。有能力解决封账号、封IP、验证码识别、图像识别等问题,有能力解决复杂的反爬限制; 5、大规模爬虫系统的设计、数据REST API的设计、开发、维护、调优,第三方数据源的对接、预处理、入库; 6、分析结构化和非结构化数据,并对数据抓取、信息提取、去重、清洗;不限于使用代码规则类进行数据清理; 7、开发代码的维护更新,Linux服务器的维护,文档维护; 8、支持部门数据需求,包括但不限于搜索数据来源、数据清洗、数据挖掘、为团队提供决策支持; 履职要求∣Requirements: 1、大学本科及以上学历,计算机相关专业; 2、耐心、细心,有较强的逻辑思考能力,和良好的工作习惯。 3、有5-10年的爬虫、数据处理、数据分析经验; 有团队管理经验;有音乐行业经验优先; 4、掌握HTML,JS,及熟悉JS反扒破解;熟悉常见的反爬虫技术如文本混淆反爬虫、验证码等; 5、熟练掌握Python数据结构与常用算法;熟悉scrapy等爬虫框架,有scrapy-redis分布式爬虫经验;熟悉正则、xpath等提取方法; 6、了解pandas、numpy掌握网络爬虫开发原理,熟悉互联网各种类型数据交互模式; 7、熟悉MySQL部署、开发与维护; 8、熟悉Linux环境,使用脚本开发维护Linux服务器; 9、具有良好的表达能力,团队合作能力;具有很强的责任心,乐于挑战,有较强的深入学习理解业务的意愿。
-
工作职责: 1.使用爬虫技术采集指定的互联网数据 2.对采集的数据进行清洗治理 3.根据项目需求导指定的项目数据 4.维护采集框架平台,维护采集脚本 5.根据公司内部的需求编写一些数据处理小工具 任职要求: 1.本科以上学历,3年以上相关工作经验; 2.计算机相关专业 3.精通Python语言,熟练掌握主流爬虫框架中的一种;熟悉常用的库requests/gevent等; 4.了解各种加密算法,能够独立解决js反爬和模拟登陆问题; 5.熟练掌握正则表达式、XPath、CSS等网页信息抽取技术; 6. 熟悉常见反爬机制,验证码识别,IP代理池、应用Ip池、headers认证和cookie等; 7. 熟练使用应用Selenium实施动态抓取; 8.熟悉熟练使用charles、fiddler等抓包工具者优先; 9. 熟悉数据清洗,能够用numpy、pandas、jieba等工具对数据进行处理者优先; 10.熟练使用sqlserver、mysql、mongodb、redis; 11.熟悉掌握rabbitMQ、kafka、spark 优先; 12.具有DBA工作经验者优先; 13.具有团队精神、积极的工作态度和对工作的责任心,有一定的稳定性。
-
base南京或苏州 职位描述: 1、负责爬虫功能的维护,各类爬虫脚本及组件的维护及升级 2、负责各类业务数据的清洗、统计、分析等相关工作 3、负责平台数据运营及数据质量的控,并配合业务人员进行数据提取、分析与验证 任职资格: 1、***本科以上学历,计算机及相关专业; 2、熟练掌握Python语言,熟练掌握JS语言、有APP数据采集经验者优先; 3、精通数据采集技术,熟悉各类反爬措施及应对策略,熟悉HTTP底层协议; 4、对数据敏感、熟悉数据分类,能结合业务目标独立对数据进行分析处理; 5、良好的数据处理能力,熟练使用pandas、numpy,有数据分析、数据挖掘经验者优先; 6、良好的编码能力,工作认真细致踏实,逻辑思维缜密,善于分析问题,具备良好的沟通交流能力。
-
非杭州伙伴可以线上办公!!! 岗位职责: 1、负责设计、开发、维护爬虫系统; 2、参与多平台信息的抓取和分析; 3、建立完整的数据获取、解析、入库和监控流程,并不断优化迭代完善; 4、设计爬虫反屏蔽规则,提升网页抓取的效率和质量; 5、利用主流的大数据相关技术,对抓取后的网页数据进行清洗、存储等;并持续优化平台,以便满足各种爬取业务需求。 任职资格: 1、熟悉GO或者RUST语言,熟练掌握js反混淆,有实操经验优先; 2、实操过akamai,datadom,cloudflare等国外cdn供应商防护优先; 3、熟悉linux开发环境,熟练掌握java或python编程语言,熟悉js语言; 4、熟悉 web/app 常见的反爬机制,精通各种反爬破解,包括但不限于:Js防护、混淆、逆向分析、App防破解、防逆向、加固技术等技能; 5、有电商类网站爬虫经验优先,有高频爬虫工作经验者优先。
-
岗位职责: 1、参与设计、开发、维护爬虫系统; 2、参与多平台信息的抓取和分析; 3、建立完整的数据获取、解析、入库和监控流程,并不断优化迭代完善; 4、设计爬虫反屏蔽规则,提升网页抓取的效率和质量; 5、利用主流的大数据相关技术,对抓取后的网页数据进行清洗、存储等;并持续优化平台,以便满足各种爬取业务需求。 任职资格: 1、熟练掌握js反混淆,熟悉Rust语言有实操经验者优先; 2、实操过akamai,datadom,cloudflare等国外cdn供应商防护优先; 4、熟悉linux开发环境,熟悉js语言; 5、熟悉web常见的反爬机制,精通各种反爬破解,包括但不限于:js防护、混淆、逆向分析、App防破解、防逆向、加固技术等技能。 p.s. 如是**时间对于爬虫有更深度社群交流或项目实践的小伙伴,也欢迎分享项目简历,一同交流~
-
岗位职责: 1、负责公司产品线的技术栈的选型和完善, 负责关键技术架构和核心模块的开发实现; 2、 参与公司项目的架构设计、研发、编程工作; 3、 设计公司业务执行策略和防屏蔽规则,提升数据抓取执行的效率和质量, 并对策略持续优化; 4、负责架构设计相关的技术攻关。 任职要求: 1、熟悉Python和常用的开源库,熟练使用Django/Flask等至少一种主流的web开发框架; 2、熟悉Mysql,mongoDB, Redis,Es,队列等数据库的使用和优化; 3、对进程、线程、协程、异步、非阻塞有一定了解和使用 4、对linux系统基础知识及原理了解较深入的。 5、熟悉爬虫主流框架Scrapy、requests、Selenium、gocolly,webmagic等框架(深入了解其中一种)。 6、对相关算法有一定了解。 7、熟悉应用IP代理池、Headers认证和Cookie等; 8、有分布式爬虫、反爬机制经验者优先 9、熟悉js逆向,js破解优先考虑 10、有参与实时监控爬虫的进度和警报反馈系统的优先考虑。 11、有参与过相关资讯/新闻与大型分布式爬虫项目的优先考虑
-
一、 岗位职责 1、负责爬虫和数据采集系统的维护与开发,包括内外大型电商平台信息爬取和页面内容的提取分析; 2、负责定期爬取指定网站的数据,完成关键信息的数据抽取、清洗、去重、分析,并转换成业务需求所需要的格式; 3、负责爬虫相关技术的研究和实现工作,比如APP破解、小程序破解、分布式爬虫、验证码破解、JS逆向反爬机制的研究等; 4、负责公司爬虫的核心算法以及策略优化,熟悉数据采集系统的调度策略; 5、设计爬虫策略和防屏蔽规则,提升网页抓取的效率和质量; 6、负责现有部分爬虫的完善、维护工作,实时监控爬虫的进度和警报反馈,提升爬虫系统稳定性、可扩展性、实用性。 二、岗位要求 1、 有3年以上大型平台及海量数据的爬取经验,例如* 聘、*宝、*东、易贝、亚马逊等,能独立完成爬虫任务; 2、 精通Mysql,Redis,常见的算法与数据结构,具有优秀的逻辑思维能力和扎实的计算机基础和编程能力,有过数据库调优和海量数据存储经验优先; 3、本科及以上学历,计算机或相关专业; 4、熟悉HTTP、HTTPS原理,理解Cookie机制,能够进行请求抓包; 5、熟悉常见的反爬机制,并对反爬具有一定的应对措施策略且有一定研究; 6、熟悉APP逆向、JS逆向、验证码破解、图像识别等技术;熟悉常用网络协议、数据存储和数据处理技术; 7、熟悉linux系统环境、命令,shell、python脚本编写。
-
岗位职责: 1.快速熟悉项目,能在较短时间进入工作状态,融入团队。 2.完成代码的开发,测试,运维,反爬突破等工作;可以快速定位bug并解决优化。 3.对数据有较高的敏感性,能持续构建优质的结构化良好的数据集,并持续更新和扩大数据的规模。 任职要求: 1.具有3年及以上爬虫经验,可以快速根据项目需求进行数据抓取代码和清洗代码开发; 2.独立分析网络协议报文,熟悉Socket/多线程/进程/异步及主流爬虫框架代码开发,精通正则表达式,xpath等解析方法; 3.可以通过代码或技巧突破主流的图形验证码,极验滑动验证码,点触验证码,宫格验证码,旋转验证码对爬虫采集的拦截; 4.熟练掌握自动化测试工具,具有一定的js分析和密码学功底,可以破解js反爬,通过脚本或者策略绕过平台机器人抓取防护服务对数据的拦截; 5.熟练使用常见数据库,掌握海量结构化和非结构化数据的去重,清洗,存储,包括但不限于文本,图片,文件,短视频等互联网主流数据类型; 加分项:有海量金融数据/金融app,web文本数据,抓取,去重,清洗等相关经验者优先。
-
岗位职责: 1.负责电商平台(包括网站和APP)的数据采集,制定高效、稳定的爬取方案,并确保数据完整性和时效性; 2.研究并绕过电商平台的反爬机制,包括验证码识别、IP封锁、JS混淆、动态加载等,提升爬虫的稳定性和成功率; 3.进行APP逆向分析,利用反编译、静态分析、Hook等技术破解数据加密、API接口加密等防护措施; 4.设计、开发和优化爬虫架构,提高数据抓取效率,优化爬虫并发、任务调度、代理池、分布式爬取等模块; 5.使用AI爬虫技术(如自动化识别网页结构、智能解析动态内容等)优化数据获取流程; 6.研究HTTP、TCP等网络协议,进行数据抓包和分析,构建高效的抓取策略; 7.编写清晰的技术文档,记录逆向工程的过程、反爬破解策略及优化方案; 8.持续关注行业发展趋势,优化爬虫系统,并结合AI技术提升数据采集的自动化和智能化程度。 任职要求: 1.本科及以上学历,计算机科学、软件工程、网络安全等相关专业,3年以上爬虫开发经验; 2.熟练掌握Python爬虫开发,精通Scrapy、Selenium、Playwright、Requests等爬虫框架和工具; 3.熟悉HTTP、TCP等网络协议,具备抓包分析能力,掌握Burp Suite、Wireshark等工具; 4.深入理解反爬技术,具备丰富的应对经验,包括但不限于代理IP池、浏览器指纹模拟、验证码识别(OCR、打码平台)、动态加载解析等; 5.具备APP逆向工程经验,熟悉APK反编译、静态分析、动态调试(Frida、Xposed等),能绕过API加密、代码混淆等安全策略; 6.了解ARM指令集,有反汇编、调试能力,能处理花指令、代码混淆等复杂场景; 7.近一年内,有百万级以上电商数据采集经验,有主流电商平台或电商类APP爬取项目经验者优先; 8.具备优秀的代码编写能力、良好的工程化思维和团队协作能力,能够编写高效、可维护的爬虫代码。 加分项: 有电商平台(如Amazon、shopee、Rakuten、Lazada等)爬虫经验者优先; 有大型分布式爬虫架构经验,熟悉Redis、Kafka、RabbitMQ等任务队列调度机制; 具备AI爬虫经验,熟悉自动化网页解析、深度学习OCR识别等技术; 了解MLOps、大数据存储、数据清洗技术,能与数据工程师协同优化数据处理流程。
热门职位