• 20k-30k 经验1-3年 / 硕士
    消费生活 / 上市公司 / 2000人以上
    基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 负责设计和开发高效的抓取系统 跟踪和研究前沿技术,不断优化抓取系统 岗位基本需求 1、计算机基础扎实,具备扎实的编程能力。 2、拥有2年以上抓取技术经验,熟悉各种抓取工具和技术。 3、熟练掌握 WEB 和 APP 协议分析,能够快速定位和解决问题。 4、对常见加解密算法、常见的安全协议、抓取攻防技术有深入了解。 5、良好的沟通能力和团队协作精神。 具备以下者优先 1、具备互联网大厂爬虫经验者优先 2、具备大模型数据建设经验者优先 岗位亮点 1. 紧跟人工智能行业进展,接触到前沿技术和行业趋势,磨练出对人工智能的独到见解; 2. 参与超大规模抓取系统建设,拓宽技术视野和技术栈; 3. 参与AI大模型的数据建设全流程,了解从理论到工程实践的全面技能; 4. 与一流的人工智能团队合作,快速成长,提升自身能力; 5. 有机会参与公司的创新项目,跨足不同领域,拓宽人工智能技术的应用范围;
  • 20k-30k 经验1-3年 / 硕士
    消费生活 / 上市公司 / 2000人以上
    基础研发平台是美团的核心技术平台,立足于“零售+科技”的战略定位,通过打造人工智能、大数据、云计算、安全等核心技术能力,以及研发效能平台、企业应用平台等公共服务,为业务提供稳定安全、扩展易用、技术领先的平台技术和产品服务。 在这里,我们会参与到最前沿的技术研发和探索;能够接触超规模集群、海量数据,挑战高复杂业务场景,有机会与业界一流的工程师一起并肩前行。 在这里,我们有超强的技术氛围,持续向社区贡献业界实践,加速行业技术发展;我们有完善的互联网学习生态圈,重视底层逻辑和方法论,助力职业生涯的非线性成长。 真诚地邀请你,和我们一起驱动技术发展,创造行业价值。 岗位职责 负责设计和开发高效的抓取系统 跟踪和研究前沿技术,不断优化抓取系统 岗位基本需求 1、计算机基础扎实,具备扎实的编程能力。 2、拥有2年以上抓取技术经验,熟悉各种抓取工具和技术。 3、熟练掌握 WEB 和 APP 协议分析,能够快速定位和解决问题。 4、对常见加解密算法、常见的安全协议、抓取攻防技术有深入了解。 5、良好的沟通能力和团队协作精神。 具备以下者优先 1、具备互联网大厂爬虫经验者优先 2、具备大模型数据建设经验者优先 岗位亮点 1. 紧跟人工智能行业进展,接触到前沿技术和行业趋势,磨练出对人工智能的独到见解; 2. 参与超大规模抓取系统建设,拓宽技术视野和技术栈; 3. 参与AI大模型的数据建设全流程,了解从理论到工程实践的全面技能; 4. 与一流的人工智能团队合作,快速成长,提升自身能力; 5. 有机会参与公司的创新项目,跨足不同领域,拓宽人工智能技术的应用范围;
  • 15k-30k·14薪 经验不限 / 不限
    新零售 / 不需要融资 / 500-2000人
    岗位职责: 1. 负责原有采集程序维护 2. 针对新的数据需求进行平**控调研以及采集策略制定 3. 能够完善现有采集系统,有进行数据可视化呈现的经验 4. 能够不断精进应对风控的采集技能。 岗位要求: 1. 熟悉python,js编程,熟悉安卓、ios开发流程更佳。 2. 有过硬的web端逆向能力,有过市面上常见的验证码对抗经验。 3. 掌握常见的python爬虫框架如scrapy等 4. 掌握常见的数据库(redis,mysql,hive,impala等) 3. 有国内电商相关数据采集经验,熟悉国内各电商平台业务逻辑。
  • 20k-30k·14薪 经验1-3年 / 本科
    软件服务|咨询,数据服务|咨询 / C轮 / 500-2000人
    工作职责: 1、负责数据爬取采集、数据ETL加工处理; 2、负责进行前沿技术研究,难点攻关; 3、实时监控爬虫任务的执行状况,及时处理异常情况 任职要求: 1、**本科及以上学历,1年以上爬虫开发经验; 2、熟练掌握python,掌握selenium、scrapy等相关框架,爬虫基础扎实; 3、熟悉掌握MongoDB,有过数据库调优和海量数据存储经验优先; 4、精通JS防护、混淆、逆向分析等技能,熟悉各种浏览器检测/反检测手段;
  • 12k-20k 经验1-3年 / 本科
    游戏 / A轮 / 50-150人
    岗位职责: 1. 负责爬虫业务线的开发迭代,完成多平台信息和页面内容、接口的抓取工作; 2. 负责信息数据的抽取、清洗、整理等工作; 3. 负责爬虫系统的优化,监控和报警,提高爬虫脚本的稳定性和抓取效率。 任职要求: 1. 本科及以上学历,2年以上独立Python爬虫开发经验; 2. 熟练使用bs、re、xpath、jsonpath等数据提取模块; 3. 熟悉 Scrapy、 selenium / pyppeteer 等常用爬虫框架,熟悉反爬策略与应对方案; 4. 熟悉Linux开发环境,熟悉 MySql / Mongodb / Redis的基本原理,有数据清洗经验的优先; 5. 有django、flask、tornado等web框架(之一即可)的使用经验,有web项目经验的优先; 6. 有良好的沟通能力、理解能力、细节把控能力、多任务并行处理能力; 7. 有责任心,能够积极主动的发现和解决问题,化解风险。 如果您成为我公司员工,您将获得: 薪资:中电博亚将为员工提供行业内有竞争力的薪酬,确保优秀员工获得更多的认可和激励; 奖金:优秀的您将共享公司的经营业绩,奖金额度与公司年度收益及个人绩效挂钩; 基本保障福利:公司按照国家规定为员工缴纳社会保险及公积金(五险一金); 额外补充福利:餐补、车补等日常津贴,下午茶零食咖啡无限量供应; 休假:相对弹性工作制;每周双休;除国家规定的法定节假日外,将给予额外的带薪年假和带薪病假。 我们虽然独树一帜,却并不冰冷; 我们虽然行事严谨,却并不死板; 我们不害怕年轻,只害怕创意枯竭; 我们不害怕失败,只害怕止步不前; 我们喜欢朝气蓬勃的你,一起用对游戏的热爱一起创造辉煌; 我们喜欢无所畏惧的你,前人没有走过的路就让我们来开辟; 那个关于游戏的梦想,你还记得吗? 我们期待你的加入!
  • 15k-20k 经验1-3年 / 本科
    移动互联网,社交 / 不需要融资 / 2000人以上
    岗位职责: 1.参与数据安全相关系统/数据的开发和维护,保证系统的高可用性和稳定性; 2.参与AI相关数据处理和AI应用研发工作; 3.参与后台系统研效提升相关工作,协调并提升团队研发效率、质量。 岗位要求: 1.掌握Golang/python语言,具备开发能力,同时掌握c++者优先; 2.熟悉Linux操作系统、网络编程,具备调试能力、问题分析能力; 3.关注并了解AI算法和技术,对AI领域有探索热情; 4.具备强烈的进取心、求知欲及团队合作精神,有很强的责任心和较强的沟通协作能力;
  • 20k-30k 经验5-10年 / 本科
    工具 / 未融资 / 少于15人
    非杭州伙伴可以线上办公!!! 岗位职责: 1、负责设计、开发、维护爬虫系统; 2、参与多平台信息的抓取和分析; 3、建立完整的数据获取、解析、入库和监控流程,并不断优化迭代完善; 4、设计爬虫反屏蔽规则,提升网页抓取的效率和质量; 5、利用主流的大数据相关技术,对抓取后的网页数据进行清洗、存储等;并持续优化平台,以便满足各种爬取业务需求。 任职资格: 1、熟悉GO或者RUST语言,熟练掌握js反混淆,有实操经验优先; 2、实操过akamai,datadom,cloudflare等国外cdn供应商防护优先; 3、熟悉linux开发环境,熟练掌握java或python编程语言,熟悉js语言; 4、熟悉 web/app 常见的反爬机制,精通各种反爬破解,包括但不限于:Js防护、混淆、逆向分析、App防破解、防逆向、加固技术等技能; 5、有电商类网站爬虫经验优先,有高频爬虫工作经验者优先。
  • 15k-25k 经验5-10年 / 本科
    移动互联网,金融 / 不需要融资 / 150-500人
    岗位职责: 1. 负责设计和实施复杂的分布式网络数据采集系统,包括财经及其他相关信息的深度抓取、分析和处理; 2. 研发先进的爬虫策略和防反爬策略,持续优化数据抓取效率和准确性,抵御各类屏蔽和反爬措施; 3. 领导爬虫项目的开发工作,制定和评审技术文档,确保代码质量和系统稳定性; 4. 督导和指导团队成员针对复杂场景进行问题分析和解决,快速定位并修复爬虫系统中的技术难题; 5. 与团队协作,参与新技术调研和前瞻性技术方案的设计,提供技术咨询和支持。 岗位要求: 1. 具备5年以上的爬虫开发经验,深入了解Python和至少一个主流的爬虫框架,如Scrapy、BeautifulSoup等; 2. 精通网络协议,有丰富的模拟请求、浏览器模拟、人机交互对抗、移动App逆向分析、JavaScript/AST解混淆等经验; 3. 有处理大规模数据采集和处理经验的候选人优先考虑; 4. 精通数据结构和算法设计,有解决高并发、数据一致性等复杂技术问题的实战经验; 5. 具有优秀的分析问题和解决问题的能力,能独立作业并具备良好的指导与团队协作精神; 6. 对爬虫技术发展保持持续关注,能快速学习并应用新技术解决实际问题; 7. 具备node.js开发经验以及参与过开源爬虫项目的候选人优先考虑; 8. 强烈的责任心以及扎实的编码规范意识,能够承担项目的核心开发和技术攻关工作。 公司福利: 1、周末双休,国家法定节假日休假,员工带薪年假; 2、试用期开始购买五险一金; 3、公司提供午餐补贴; 4、茶水间饮料零食;节日福利,生日福利; 5、个人评优奖; 6、公司年会活动,抽奖礼物等。
  • 30k-40k·13薪 经验3-5年 / 本科
    文娱|内容,广告营销 / 未融资 / 500-2000人
    职位描述 1、熟悉Scrapy,有丰富的爬虫及反爬虫相关经验 2、负责复杂验证码的破解技术调研和实现,负责爬虫技术的调研和破解 3、研究反爬机制,处理抓包,下载等环节的疑难问题 4、负责数据下载、抽取、清洗、分类、聚类等工作 5、负责爬虫核心算法的优化、充分利用资源 职位要求(该岗位须驻外) 1、3年爬虫经验以上 2、大规模网络内容采集系统项目经验 3、对网页数据抓取、信息提取、去重、清洗有丰富经验 4、精通爬虫相关语言,python或nodej等 5、对分布式领域有一定了解,具有开发、调试或维护的相关经验优先
  • 5k-10k 经验在校/应届 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    工作职责: 1.负责规划、设计和开发爬虫相关系统,进行多平台多终端信息的抓取和分析。 2.基于抓取系统的数据抓取、清洗等设计开发。 3.配合业务线,完成实时数据与离线数据的爬取与对接。 任职要求: 1.精通Python语言\MYSQL,熟练使用常用模块,使用过Flask web框架; 2.能够解决封账号、封IP采集等问题,解决网页抓取、信息抽取等问题 3.熟悉爬虫工作原理,深入了HTTP协议内容 4.至少了解一种主流爬虫框架的架构及原理,有具体工程经验,如 scrapy / pyspider等 5.了解基于Cookie的登录原理,熟悉常用的信息抽取技术,如正则表达式、XPath等 6.对常见各类反爬方式(如账号/IP封禁、验证码、js混淆加密、滑块验证、数据混淆等)有一定解决经验
  • 30k-40k·13薪 经验3-5年 / 大专
    文娱|内容,广告营销 / 未融资 / 500-2000人
    1、熟悉Scrapy,有丰富的爬虫及反爬虫相关经验 2、负责复杂验证码的破解技术调研和实现,负责爬虫技术的调研和破解 3、研究反爬机制,处理抓包,下载等环节的疑难问题 4、负责数据下载、抽取、清洗、分类、聚类等工作 5、负责爬虫核心算法的优化、充分利用资源 职位要求 1、3年爬虫经验以上 2、大规模网络内容采集系统项目经验 3、对网页数据抓取、信息提取、去重、清洗有丰富经验 4、精通爬虫相关语言,python或nodej等 5、对分布式领域有一定了解,具有开发、调试或维护的相关经验优先
  • 15k-25k 经验3-5年 / 本科
    企业服务,人工智能 / 未融资 / 15-50人
    网络信息安全,爬虫,攻防,全栈技术工程师
  • 20k-30k 经验5-10年 / 本科
    工具 / 未融资 / 少于15人
    非杭州伙伴可以线上办公!!! 岗位职责: 1、负责设计、开发、维护爬虫系统; 2、参与多平台信息的抓取和分析; 3、建立完整的数据获取、解析、入库和监控流程,并不断优化迭代完善; 4、设计爬虫反屏蔽规则,提升网页抓取的效率和质量; 5、利用主流的大数据相关技术,对抓取后的网页数据进行清洗、存储等;并持续优化平台,以便满足各种爬取业务需求。 任职资格: 1、熟悉GO或者RUST语言,熟练掌握js反混淆,有实操经验优先; 2、实操过akamai,datadom,cloudflare等国外cdn供应商防护优先; 3、熟悉linux开发环境,熟练掌握java或python编程语言,熟悉js语言; 4、熟悉 web/app 常见的反爬机制,精通各种反爬破解,包括但不限于:Js防护、混淆、逆向分析、App防破解、防逆向、加固技术等技能; 5、有电商类网站爬虫经验优先,有高频爬虫工作经验者优先。
  • 22k-35k·13薪 经验3-5年 / 本科
    金融 / 不需要融资 / 150-500人
    目前招聘画像: 1.资深数据爬取经验 2.数据清洗,数据处理(体量在1 T以上) 3.有算法背景,数据挖掘经验 数据处理 了解NLP算法 岗位职责: 1. 负责研究院数据采集工作,包括文本、图片、视频等多种类型数据,持续更新和扩大数据集规模; 2. 根据项目需求,快速进行数据抓取代码和清洗代码开发; 3. 协助研究团队对数据进行清洗、过滤、存储等处理工作; 4. 对数据平台存储的海量数据进行管理和维护。 岗位要求: 1. 985 211优先考虑,计算机相关专业,熟悉计算机基础知识,具有3年及以上爬虫与反爬工作经验; 2. 熟悉linux平台开发,精通Python,熟悉各种爬虫框架和工具,掌握验证码识别技术、js逆向等常用反爬技能; 3. 熟悉大数据处理的流程以及熟练使用相关的工具,具备使用、维护、调优的能力,包括但不限于Hadoop、Spark、Kafka、ELK、Flink、ClickHouse、kettle等; 4. 熟悉Socket网络编程,多线程/进程/异步code的开发,掌握TCP/IP,UDP及常见变种网络通信协议,熟练使用工具对网络协议进行报文分析和调试,熟练使用正则表达式,xpath等匹配方法,能够快速从原始数据中提取有用信息; 5. 良好的沟通能力,抗压能力强,能独立解决开发过程遇到的各类问题; 6. 有大规模项目爬取工作经验优先,有大数据处理工作经验优先。
  • 10k-12k·13薪 经验3-5年 / 本科
    金融业,软件服务|咨询 / 未融资 / 15-50人
    职位描述: 1、负责网络爬虫系统平台的架构设计与开发(如抓取调度,多样化抓取,页面解析和结构化抽取)、技术选型; 2、研究爬虫策略和防屏蔽规则,解决封账号、封IP、验证码、混淆加密,算法还原,so层,页面跳转等难点攻克,提升网页抓取的效率和质量; 3、对抓取后的数据进行清洗、存储等,并持续优化 平台,以便满足各种爬取业务需求。岗位要求: 1.精通Linux/UNIX,精通Python语言,至少熟练掌 握主流爬虫框架中的一种; 2.了解各种加密算法,在破解验证码方面有丰富经验,能够独立解决is反爬和模拟登陆问题; 3.熟练掌握正则表达式、XPath、CSS等网页信息抽 取技术; 4.熟悉常见反爬机制,验证码识别,IP代理池、应用 lp池、headers认证和cookie等; 5.熟练掌握应用Selenium、PhantomJS、Splash Puppeteer实施动态抓取; 6.熟悉熟练使用charles、fiddler等抓包工具者优先 7.熟悉数据清洗,能够用numpy、pandas、jieba等 8.熟悉mysal、mongodb、redis、rabbitMQ、kafk a、spark者优先; 9.对有金融数据抓取清洗经验优先; 工作时间: 8小时工作制,周一至周五(双休、国家法定节假日 )。 薪资待遇: 试用期3个月,正式入职工资6000~11000。 条件优异者,****