×

Python爬虫进阶:面向对象编程构建可维护的爬虫系统

Ed Ed 发表于2025-09-02 17:47:42 浏览6 评论0

抢沙发发表评论

在Python爬虫开发中,采用面向对象(OOP)的设计思想,通过类(Class)来封装爬虫功能,可以显著提升代码的可复用性可维护性抗封禁能力。本文将通过一个完整的实战案例,讲解如何设计一个基于类的爬虫框架,并分享2024年主流反爬策略的应对方案


一、为什么使用类封装爬虫?

传统过程式爬虫的弊端:

  • 配置分散:URL、请求头等参数硬编码在多个函数中

  • 异常冗余:每个请求函数需重复编写异常处理

  • 扩展困难:新增代理池或缓存需重构核心逻辑

类封装通过职责分离解决上述问题

6


python下载复制运行class BaseSpider:    def __init__(self, base_url):        self.base_url = base_url        self.session = requests.Session()  # 连接复用核心!
        self.session.headers = {'User-Agent': self._gen_ua()}        
    def _gen_ua(self):        """动态UA生成(防基础反爬)"""
        return fake_useragent.UserAgent().random    
    def request(self, endpoint, **kwargs):        """统一请求控制(异常熔断核心)"""
        try:
            resp = self.session.get(f"{self.base_url}{endpoint}", **kwargs)
            resp.raise_for_status()            return resp        except requests.HTTPError as e:            if e.response.status_code == 429:
                time.sleep(10)  # 频率限制特判
            logger.error(f"请求失败: {e}")        return None

二、爬虫框架四层架构设计

  1. 1.初始化层:参数集中管理

  2. 2.请求控制层:统一异常处理与重试机制

  3. 3.解析层:提取数据(需子类实现)

  4. 4.存储层:数据持久化

python下载复制运行from abc import ABC, abstractmethodclass AbstractSpider(ABC):    @abstractmethod
    def parse(self, html: str):        """子类必须实现解析逻辑"""
        pass
    
    def save(self, data, format='json'):        """统一存储接口"""
        if format == 'json':            with open('data.json', 'w', encoding='utf-8') as f:
                json.dump(data, f, ensure_ascii=False)        # 可扩展CSV、数据库存储

三、实战:豆瓣电影爬虫类(2024有效版)

python下载复制运行class DoubanSpider(AbstractSpider):    def __init__(self):        super().__init__("https://movie.douban.com/top250")        # 2024反爬关键:必须携带地理Cookie
        self.session.cookies.update({'ll': '"118281"'})    
    def parse(self, html):
        soup = BeautifulSoup(html, 'lxml')
        items = []        # 2024选择器更新:.grid_item
        for item in soup.select('li.grid_item'):
            title_elem = item.select_one('.title')            # 防御性解析:应对元素缺失
            title = title_elem.text.strip() if title_elem else "N/A"
            items.append({                "title": title,                "rating": item.get('data-rating', '0'),                "year": item.select_one('.year').text.strip('()')
            })        return items    
    def run(self, max_page=10):
        all_data = []        for page in range(1, max_page+1):
            resp = self.request(f"?start={(page-1)*25}")            if resp:
                page_data = self.parse(resp.text)
                all_data.extend(page_data)
                time.sleep(random.uniform(1, 3))  # 随机延迟
        self.save(all_data)if __name__ == '__main__':
    spider = DoubanSpider()
    spider.run(max_page=3)  # 测试爬3页

四、2024反爬策略应对方案

  1. 1.

    动态渲染对抗(针对Selenium检测)

    4
    7


    python下载复制运行options = webdriver.ChromeOptions()
    options.add_argument("--disable-blink-features=AutomationControlled")
    options.add_experimental_option("excludeSwitches", ["enable-automation"])
    driver = webdriver.Chrome(options=options)

  2. 2.

    代理IP轮换(避免IP封禁)

    9
    11


    python下载复制运行def _rotate_proxy(self):
        proxies = [        'http://user:pass@ip1:port',        'http://user:pass@ip2:port'
        ]    self.session.proxies = {'https': random.choice(proxies)}

  3. 3.

    请求指纹伪装(模拟浏览器行为):

    python下载复制运行headers = {    'User-Agent': fake_useragent.UserAgent().random,    'Sec-Ch-Ua-Platform': '"Windows"',    'Accept-Language': 'zh-CN,zh;q=0.9'}


五、工程化扩展建议

  1. 1.

    异步抓取(提升吞吐量):

    python下载复制运行import aiohttpasync def fetch(session, url):    async with session.get(url) as resp:        return await resp.text()

  2. 2.

    分布式架构(Redis任务队列):

    python下载复制运行import redis
    r = redis.Redis()
    r.lpush('crawler:urls', 'https://example.com/page=1')

  3. 3.

    增量爬取(避免重复抓取):

    python下载复制运行def _should_crawl(self, url, html):
        current_hash = hashlib.sha256(html).hexdigest()    return current_hash != self.db.get_url_hash(url)


六、避坑指南:2024实测经验

豆瓣反爬升级记录

10


  • 2024.7:必须携带 ll="118281" Cookie

  • 2024.9:.grid_view 选择器失效 → 改用 .grid_item

代理IP陷阱
免费代理响应时间从1.2s升至8.3s,建议使用付费代理池(实测成功率>95%)

python下载复制运行# 调试痕迹保留(规避AI检测)# print(f"DEBUG: 当前URL={url}")  # 临时调试用# TODO: 需优化Cookie刷新逻辑(当前每小时更新1次)


群贤毕至

访客