• 20k-30k 经验1-3年 / 硕士
    消费生活 / 上市公司 / 2000人以上
    基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 负责设计和开发高效的抓取系统 跟踪和研究前沿技术,不断优化抓取系统 岗位基本需求 1、计算机基础扎实,具备扎实的编程能力。 2、拥有2年以上抓取技术经验,熟悉各种抓取工具和技术。 3、熟练掌握 WEB 和 APP 协议分析,能够快速定位和解决问题。 4、对常见加解密算法、常见的安全协议、抓取攻防技术有深入了解。 5、良好的沟通能力和团队协作精神。 具备以下者优先 1、具备互联网大厂爬虫经验者优先 2、具备大模型数据建设经验者优先 岗位亮点 1. 紧跟人工智能行业进展,接触到前沿技术和行业趋势,磨练出对人工智能的独到见解; 2. 参与超大规模抓取系统建设,拓宽技术视野和技术栈; 3. 参与AI大模型的数据建设全流程,了解从理论到工程实践的全面技能; 4. 与一流的人工智能团队合作,快速成长,提升自身能力; 5. 有机会参与公司的创新项目,跨足不同领域,拓宽人工智能技术的应用范围;
  • 20k-30k 经验1-3年 / 硕士
    消费生活 / 上市公司 / 2000人以上
    基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 负责设计和开发高效的抓取系统 跟踪和研究前沿技术,不断优化抓取系统 岗位基本需求 1、计算机基础扎实,具备扎实的编程能力。 2、拥有2年以上抓取技术经验,熟悉各种抓取工具和技术。 3、熟练掌握 WEB 和 APP 协议分析,能够快速定位和解决问题。 4、对常见加解密算法、常见的安全协议、抓取攻防技术有深入了解。 5、良好的沟通能力和团队协作精神。 具备以下者优先 1、具备互联网大厂爬虫经验者优先 2、具备大模型数据建设经验者优先 岗位亮点 1. 紧跟人工智能行业进展,接触到前沿技术和行业趋势,磨练出对人工智能的独到见解; 2. 参与超大规模抓取系统建设,拓宽技术视野和技术栈; 3. 参与AI大模型的数据建设全流程,了解从理论到工程实践的全面技能; 4. 与一流的人工智能团队合作,快速成长,提升自身能力; 5. 有机会参与公司的创新项目,跨足不同领域,拓宽人工智能技术的应用范围;
  • 30k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责保护公司电商平台的数据安全,防范和打击爬虫及其他恶意行为,研究和掌握最新的反爬虫技术,制定和实施有效的反爬虫策略; 2、深入了解上下游业务形态,可独立发起治理专项,快速定位问题并形成落地策略及效果评估闭环; 3、分析和调查电商平台上的异常流量和可疑活动,从海量设备、行为数据中发掘有价值的信息; 4、可协助进行建模工作,如特征分析、数据可视化呈现等,为团队决策提供数据支持; 5、与产研团队高效合作,优化技术架构和端上安全能力,建立端管云三位一体的反爬体系,量化防控效果,驱动反爬能力的不断提高。 职位要求: 1、计算机、信息安全、统计、数学等相关专业; 2、3年相关反爬相关经验,具备网络安全、数据保护和风险管理方面的专业知识,有电商经验者优先; 3、熟练掌握SQL、Python等编程语言,具有扎实的数据分析能力及学习能力; 4、深入了解常见的爬虫技术和工具,具有丰富的反爬虫经验,熟悉 Web 安全、网络协议、漏洞扫描等相关技术; 5、具有较强的问题解决能力,能够快速分析和处理安全事件,具备良好的团队合作精神和沟通能力。
  • 15k-30k·14薪 经验不限 / 不限
    新零售 / 不需要融资 / 500-2000人
    岗位职责: 1. 负责原有采集程序维护 2. 针对新的数据需求进行平**控调研以及采集策略制定 3. 能够完善现有采集系统,有进行数据可视化呈现的经验 4. 能够不断精进应对风控的采集技能。 岗位要求: 1. 熟悉python,js编程,熟悉安卓、ios开发流程更佳。 2. 有过硬的web端逆向能力,有过市面上常见的验证码对抗经验。 3. 掌握常见的python爬虫框架如scrapy等 4. 掌握常见的数据库(redis,mysql,hive,impala等) 3. 有国内电商相关数据采集经验,熟悉国内各电商平台业务逻辑。
  • 12k-20k 经验1-3年 / 本科
    游戏 / A轮 / 50-150人
    岗位职责: 1. 负责爬虫业务线的开发迭代,完成多平台信息和页面内容、接口的抓取工作; 2. 负责信息数据的抽取、清洗、整理等工作; 3. 负责爬虫系统的优化,监控和报警,提高爬虫脚本的稳定性和抓取效率。 任职要求: 1. 本科及以上学历,2年以上独立Python爬虫开发经验; 2. 熟练使用bs、re、xpath、jsonpath等数据提取模块; 3. 熟悉 Scrapy、 selenium / pyppeteer 等常用爬虫框架,熟悉反爬策略与应对方案; 4. 熟悉Linux开发环境,熟悉 MySql / Mongodb / Redis的基本原理,有数据清洗经验的优先; 5. 有django、flask、tornado等web框架(之一即可)的使用经验,有web项目经验的优先; 6. 有良好的沟通能力、理解能力、细节把控能力、多任务并行处理能力; 7. 有责任心,能够积极主动的发现和解决问题,化解风险。 如果您成为我公司员工,您将获得: 薪资:中电博亚将为员工提供行业内有竞争力的薪酬,确保优秀员工获得更多的认可和激励; 奖金:优秀的您将共享公司的经营业绩,奖金额度与公司年度收益及个人绩效挂钩; 基本保障福利:公司按照国家规定为员工缴纳社会保险及公积金(五险一金); 额外补充福利:餐补、车补等日常津贴,下午茶零食咖啡无限量供应; 休假:相对弹性工作制;每周双休;除国家规定的法定节假日外,将给予额外的带薪年假和带薪病假。 我们虽然独树一帜,却并不冰冷; 我们虽然行事严谨,却并不死板; 我们不害怕年轻,只害怕创意枯竭; 我们不害怕失败,只害怕止步不前; 我们喜欢朝气蓬勃的你,一起用对游戏的热爱一起创造辉煌; 我们喜欢无所畏惧的你,前人没有走过的路就让我们来开辟; 那个关于游戏的梦想,你还记得吗? 我们期待你的加入!
  • 20k-30k·14薪 经验1-3年 / 本科
    软件服务|咨询,数据服务|咨询 / C轮 / 500-2000人
    工作职责: 1、负责数据爬取采集、数据ETL加工处理; 2、负责进行前沿技术研究,难点攻关; 3、实时监控爬虫任务的执行状况,及时处理异常情况 任职要求: 1、**本科及以上学历,1年以上爬虫开发经验; 2、熟练掌握python,掌握selenium、scrapy等相关框架,爬虫基础扎实; 3、熟悉掌握MongoDB,有过数据库调优和海量数据存储经验优先; 4、精通JS防护、混淆、逆向分析等技能,熟悉各种浏览器检测/反检测手段;
  • 15k-20k 经验1-3年 / 本科
    移动互联网,社交 / 不需要融资 / 2000人以上
    岗位职责: 1.参与数据安全相关系统/数据的开发和维护,保证系统的高可用性和稳定性; 2.参与AI相关数据处理和AI应用研发工作; 3.参与后台系统研效提升相关工作,协调并提升团队研发效率、质量。 岗位要求: 1.掌握Golang/python语言,具备开发能力,同时掌握c++者优先; 2.熟悉Linux操作系统、网络编程,具备调试能力、问题分析能力; 3.关注并了解AI算法和技术,对AI领域有探索热情; 4.具备强烈的进取心、求知欲及团队合作精神,有很强的责任心和较强的沟通协作能力;
  • 15k-25k 经验3-5年 / 本科
    企业服务,人工智能 / 未融资 / 15-50人
    网络信息安全,爬虫,攻防,全栈技术工程师
  • 22k-35k·13薪 经验3-5年 / 本科
    金融 / 不需要融资 / 150-500人
    目前招聘画像: 1.资深数据爬取经验 2.数据清洗,数据处理(体量在1 T以上) 3.有算法背景,数据挖掘经验 数据处理 了解NLP算法 岗位职责: 1. 负责研究院数据采集工作,包括文本、图片、视频等多种类型数据,持续更新和扩大数据集规模; 2. 根据项目需求,快速进行数据抓取代码和清洗代码开发; 3. 协助研究团队对数据进行清洗、过滤、存储等处理工作; 4. 对数据平台存储的海量数据进行管理和维护。 岗位要求: 1. 985 211优先考虑,计算机相关专业,熟悉计算机基础知识,具有3年及以上爬虫与反爬工作经验; 2. 熟悉linux平台开发,精通Python,熟悉各种爬虫框架和工具,掌握验证码识别技术、js逆向等常用反爬技能; 3. 熟悉大数据处理的流程以及熟练使用相关的工具,具备使用、维护、调优的能力,包括但不限于Hadoop、Spark、Kafka、ELK、Flink、ClickHouse、kettle等; 4. 熟悉Socket网络编程,多线程/进程/异步code的开发,掌握TCP/IP,UDP及常见变种网络通信协议,熟练使用工具对网络协议进行报文分析和调试,熟练使用正则表达式,xpath等匹配方法,能够快速从原始数据中提取有用信息; 5. 良好的沟通能力,抗压能力强,能独立解决开发过程遇到的各类问题; 6. 有大规模项目爬取工作经验优先,有大数据处理工作经验优先。
  • 5k-8k 经验在校/应届 / 本科
    数据服务,电商 / 未融资 / 少于15人
    职位描述: 1、参与爬虫项目的架构设计、研发、编程工作,改进和提升爬虫效率; 2、设计爬虫策略和防屏蔽规则,提升网页抓取的效率和质量; 3、负责网页采集任务的分析及采集方案设计; 4、负责分布式爬虫策略持续优化。 任职要求: 1、熟悉Java、Python、Shell、R 等至少一门语言; 2、负责分析并采集网站数据,并按照要求对采集的数据进行整理; 3、具有较强的业务分析能力,较好的沟通表达和综合协调能力; 4、责任心强,有快速学习能力,对大数据方向感兴趣。 福利: 大数据行业 热门商圈 弹性工作 远程工作
  • 5k-10k 经验在校/应届 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    工作职责: 1.负责规划、设计和开发爬虫相关系统,进行多平台多终端信息的抓取和分析。 2.基于抓取系统的数据抓取、清洗等设计开发。 3.配合业务线,完成实时数据与离线数据的爬取与对接。 任职要求: 1.精通Python语言\MYSQL,熟练使用常用模块,使用过Flask web框架; 2.能够解决封账号、封IP采集等问题,解决网页抓取、信息抽取等问题 3.熟悉爬虫工作原理,深入了HTTP协议内容 4.至少了解一种主流爬虫框架的架构及原理,有具体工程经验,如 scrapy / pyspider等 5.了解基于Cookie的登录原理,熟悉常用的信息抽取技术,如正则表达式、XPath等 6.对常见各类反爬方式(如账号/IP封禁、验证码、js混淆加密、滑块验证、数据混淆等)有一定解决经验
  • 30k-40k·13薪 经验3-5年 / 大专
    文娱|内容,广告营销 / 未融资 / 500-2000人
    1、熟悉Scrapy,有丰富的爬虫及反爬虫相关经验 2、负责复杂验证码的破解技术调研和实现,负责爬虫技术的调研和破解 3、研究反爬机制,处理抓包,下载等环节的疑难问题 4、负责数据下载、抽取、清洗、分类、聚类等工作 5、负责爬虫核心算法的优化、充分利用资源 职位要求 1、3年爬虫经验以上 2、大规模网络内容采集系统项目经验 3、对网页数据抓取、信息提取、去重、清洗有丰富经验 4、精通爬虫相关语言,python或nodej等 5、对分布式领域有一定了解,具有开发、调试或维护的相关经验优先
  • 20k-30k 经验5-10年 / 本科
    工具 / 未融资 / 少于15人
    非杭州伙伴可以线上办公!!! 岗位职责: 1、负责设计、开发、维护爬虫系统; 2、参与多平台信息的抓取和分析; 3、建立完整的数据获取、解析、入库和监控流程,并不断优化迭代完善; 4、设计爬虫反屏蔽规则,提升网页抓取的效率和质量; 5、利用主流的大数据相关技术,对抓取后的网页数据进行清洗、存储等;并持续优化平台,以便满足各种爬取业务需求。 任职资格: 1、熟悉GO或者RUST语言,熟练掌握js反混淆,有实操经验优先; 2、实操过akamai,datadom,cloudflare等国外cdn供应商防护优先; 3、熟悉linux开发环境,熟练掌握java或python编程语言,熟悉js语言; 4、熟悉 web/app 常见的反爬机制,精通各种反爬破解,包括但不限于:Js防护、混淆、逆向分析、App防破解、防逆向、加固技术等技能; 5、有电商类网站爬虫经验优先,有高频爬虫工作经验者优先。
  • 20k-30k 经验5-10年 / 本科
    工具 / 未融资 / 少于15人
    非杭州伙伴可以线上办公!!! 岗位职责: 1、负责设计、开发、维护爬虫系统; 2、参与多平台信息的抓取和分析; 3、建立完整的数据获取、解析、入库和监控流程,并不断优化迭代完善; 4、设计爬虫反屏蔽规则,提升网页抓取的效率和质量; 5、利用主流的大数据相关技术,对抓取后的网页数据进行清洗、存储等;并持续优化平台,以便满足各种爬取业务需求。 任职资格: 1、熟悉GO或者RUST语言,熟练掌握js反混淆,有实操经验优先; 2、实操过akamai,datadom,cloudflare等国外cdn供应商防护优先; 3、熟悉linux开发环境,熟练掌握java或python编程语言,熟悉js语言; 4、熟悉 web/app 常见的反爬机制,精通各种反爬破解,包括但不限于:Js防护、混淆、逆向分析、App防破解、防逆向、加固技术等技能; 5、有电商类网站爬虫经验优先,有高频爬虫工作经验者优先。
  • 8k-12k·13薪 经验3-5年 / 大专
    企业服务,数据服务 / 不需要融资 / 15-50人
    岗位职责: 1、负责分布式网络爬虫系统的架构设计与开发,不断优化爬虫策略和破解各种反爬措施; 2、负责爬虫系统相关的管理、监控、告警及可视化功能设计与开发,实时管理和掌握爬虫系统运行状态; 3、负责网页数据的采集、抽取、清洗、消重、入库及分析等工作; 4、负责与产品经理、UI、前后端工程师等紧密沟通协作,积极推动爬虫系统相关开发及优化工作,保障爬虫系统的稳定可靠运行。 任职要求: 1、具有大专或以上学历,2年以上爬虫系统开发经验,有分布式爬虫相关经验; 2、精通python语言和常见的开发框架,熟悉Scrapy、Pyspider、Webmagic、Nutch、Selenium等主流爬虫相关框架,熟悉代理技术及其应用; 3、熟悉常见的反爬策略,熟悉JS防护、混淆、逆向分析等技能,熟悉各种浏览器检测/反检测手段; 4、熟练使用Re、XPath、BeautifulSoup、PyQuery等解析提取数据; 5、熟悉Django、Flask等任一种的Python Web开发框架; 7、熟悉MySQL、MongoDB、Redis、Elasticsearch等数据库; 8、了解Linux操作系统,熟练使用Linux常用命令,熟悉docker容器的运用; 9、对数据挖掘分析、自然语言处理、深度学习、AI大模型等相关技术有一定认识和经验的优先; 10、优秀的自驱能力、高度的责任心、积极的合作精神,良好的沟通能力、问题定位分析能力。 PS:周末双休,节假日正常放假,我们追求高效工作,而非无意义的加班内卷。