《Python 网络爬虫简易速速上手小册》第7章:如何绕过反爬虫技术?(2024 最新版)

在这里插入图片描述

文章目录

  • 7.1 识别和应对 CAPTCHA
    • 7.1.1 重点基础知识讲解
    • 7.1.2 重点案例:使用Tesseract OCR识别简单CAPTCHA
    • 7.1.3 拓展案例 1:使用深度学习模型识别复杂CAPTCHA
    • 7.1.4 拓展案例 2:集成第三方 CAPTCHA 解决服务
  • 7.2 IP 轮换与代理的使用
    • 7.2.1 重点基础知识讲解
    • 7.2.2 重点案例:使用 requests 库与代理 IP 进行数据抓取
    • 7.2.3 拓展案例 1:结合 Scrapy 和 Scrapy-Redis 使用代理
    • 7.2.4 拓展案例 2:自动切换代理 IP
  • 7.3 用户代理和 Cookie 的管理
    • 7.3.1 重点基础知识讲解
    • 7.3.2 重点案例:使用 requests 库设置用户代理和 Cookie
    • 7.3.3 拓展案例 1:动态更换用户代理
    • 7.3.4 拓展案例 2:使用 session 对象管理 Cookie

7.1 识别和应对 CAPTCHA

在爬虫的世界里,CAPTCHA(全自动区分计算机和人类的公开图灵测试)像是一道守护网站不被自动化工具侵扰的魔法屏障。但对于执着于获取数据的我们来说,总有几种方法可以尝试绕过这个障碍。

7.1.1 重点基础知识讲解

  • OCR(光学字符识别):OCR技术可以识别图片中的文字,对于一些简单的文字型CAPTCHA,使用OCR可能直接破解。
  • 人工智能模型:近年来,随着深度学习技术的发展,一些训练有素的模型能够识别更加复杂的CAPTCHA图像。
  • 第三方解决方案:存在一些服务,如Anti-Captcha、2Captcha等,提供了API接口,可以代替人工识别CAPTCHA。
  • 手动输入:在一些情况下,如果CAPTCHA识别不是频繁的需求,简单直接的方法就是手动输入。

7.1.2 重点案例:使用Tesseract OCR识别简单CAPTCHA

假设你遇到了一个使用简单数字和字母组合的CAPTCHA,我们可以使用Tesseract OCR来尝试自动识别。

from PIL import Image
import pytesseract
import requests
from io import BytesIO

# 获取CAPTCHA图片
response = requests.get('http://example.com/captcha.jpg')
img = Image.open(BytesIO(response.content))

# 使用Tesseract进行OCR识别
captcha_text = pytesseract.image_to_string(img)
print(f"识别的CAPTCHA文本: {captcha_text}")

7.1.3 拓展案例 1:使用深度学习模型识别复杂CAPTCHA

对于复杂的CAPTCHA,可以使用预先训练好的深度学习模型进行识别。这需要大量的标记数据来训练模型,或者使用现有的模型。

# 这是一个概念性示例,实际使用时需要根据具体模型进行调整
# 假设我们有一个训练好的模型 model.h5 可以加载来识别CAPTCHA

from tensorflow.keras.models import load_model
from PIL import Image
import numpy as np

# 加载模型
model = load_model('model.h5')

# 加载并预处理CAPTCHA图像
img = Image.open('captcha.jpg').convert('L')  # 转换为灰度图像
img = np.resize(img, (1, 28, 28, 1))  # 调整大小和维度以匹配模型

# 预测
prediction = model.predict(img)
captcha_text = ''.join([str(np.argmax(i)) for i in prediction])
print(f"识别的CAPTCHA文本: {captcha_text}")

7.1.4 拓展案例 2:集成第三方 CAPTCHA 解决服务

当自动化方法不可行或不够准确时,可以使用第三方服务来解决CAPTCHA。

import requests

# 使用2Captcha服务解决CAPTCHA
api_key = 'YOUR_2CAPTCHA_API_KEY'
captcha_file = 'captcha.jpg'
with open(captcha_file, 'rb') as file:
    response = requests.post(
        f'http://2captcha.com/in.php?key={api_key}',
        files={'file': file}
    )
if response.ok:
    request_id = response.text.split('|')[1]
    # 检索解决结果
    resolve_url = f'http://2captcha.com/res.php?key={api_key}&action=get&id={request_id}'
    for _ in range(5):  # 尝试5次获取结果
        solve_response = requests.get(resolve_url)
        if solve_response.text.startswith('OK'):
            print(f"CAPTCHA解决方案: {solve_response.text.split('|')[1]}")
            break

通过这些方法,我们可以在不同情况下尝试绕过CAPTCHA的挑战。重要的是要记住,我们应当尊重网站的防爬策略,合理合法地使用这些技术。在使用第三方服务时,也要考虑到成本和响应时间的因素。

在这里插入图片描述


7.2 IP 轮换与代理的使用

在网络爬虫的探险旅程中,使用代理IP轮换是一种巧妙的伪装技术,可以帮助你的爬虫避开网站的IP封锁,就像是变色龙一样在数据丛林中隐身。

7.2.1 重点基础知识讲解

  • 代理IP的选择:选择高质量的代理IP是关键。这些代理可以是公开的代理,也可以是付费的私有代理服务,关键在于稳定性和匿名度。
  • 轮换策略:合理地轮换代理IP可以避免因频繁请求同一网站而被封禁。轮换策略可以基于时间、请求次数等因素来设置。
  • 请求头设置:使用代理时,还应注意修改请求头中的一些字段,如User-Agent,以更好地模拟正常用户的行为。
  • 错误处理:在使用代理IP时,可能会遇到代理失效的情况,合理的错误处理和重试机制是必不可少的。

7.2.2 重点案例:使用 requests 库与代理 IP 进行数据抓取

假设我们有一系列的代理IP,需要使用这些代理去抓取某个网站的数据。

import requests

# 代理IP列表
proxies_list = [
    {"http": "http://10.10.1.10:3128", "https": "http://10.10.1.10:1080"},
    {"http": "http://10.10.1.11:3128", "https": "http://10.10.1.11:1080"},
    # 更多代理IP
]

url = "http://example.com/data"

# 轮换使用代理IP抓取数据
for proxy in proxies_list:
    try:
        response = requests.get(url, proxies=proxy, timeout=5)
        print(f"成功获取数据: {response.text[:100]}")
        break  # 成功获取数据后跳出循环
    except Exception as e:
        print(f"代理 {proxy} 请求失败,切换到下一个代理。错误信息:{e}")

7.2.3 拓展案例 1:结合 Scrapy 和 Scrapy-Redis 使用代理

当使用Scrapy框架进行大规模爬虫开发时,结合Scrapy-Redis和代理池可以有效实现分布式爬虫和IP轮换。

# 假设你的Scrapy项目中有一个中间件或代理池服务来管理代理IP
class ProxyMiddleware(object):
    def process_request(self, request, spider):
        # 从代理池中获取代理IP
        proxy = get_proxy_from_pool()  # 假设的函数,需要根据实际情况实现
        request.meta['proxy'] = proxy

7.2.4 拓展案例 2:自动切换代理 IP

在一些情况下,可能需要根据请求的成功与否自动切换代理IP。

import requests

# 初始化代理IP列表和当前代理索引
proxies_list = [...]
current_proxy_index = 0

def fetch_with_auto_rotate_proxy(url):
    global current_proxy_index
    while current_proxy_index < len(proxies_list):
        proxy = proxies_list[current_proxy_index]
        try:
            response = requests.get(url, proxies=proxy, timeout=5)
            print(f"使用代理 {proxy} 成功获取数据")
            return response
        except:
            print(f"使用代理 {proxy} 请求失败,尝试下一个代理")
            current_proxy_index += 1
    print("所有代理尝试完毕,未能成功获取数据")

url = "http://example.com/data"
fetch_with_auto_rotate_proxy(url)

通过这些策略和案例的学习,我们可以更加灵活地使用代理IP来提高爬虫的隐蔽性和效率。记住,使用代理时要遵循网站的规定,合理合法地收集数据。

在这里插入图片描述


7.3 用户代理和 Cookie 的管理

在数据侠的工具箱里,用户代理(User-Agent)和 Cookie 的管理是进行有效的网络爬虫活动时不可或缺的技能。这些工具帮助我们的爬虫更像一个普通用户而不是一个机器人,从而更加自由地在数据的世界里遨游。

7.3.1 重点基础知识讲解

  • 用户代理(User-Agent):用户代理是 HTTP 请求的一部分,它告诉服务器是哪种类型的设备(如桌面、手机)、操作系统和浏览器正在发起请求。通过更换用户代理,爬虫可以伪装成不同的浏览器或设备。
  • Cookie 管理:Cookie 是服务器发送到用户浏览器并保存的小数据片段,用于追踪浏览器会话。管理 Cookie 可以帮助爬虫维持登录状态,访问需要认证的数据。

7.3.2 重点案例:使用 requests 库设置用户代理和 Cookie

让我们来看一个使用 Python requests 库,同时设置用户代理和 Cookie 来抓取需要登录后才能访问的页面的例子。

import requests

url = "http://example.com/secret-data"
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
cookies = {
    'session_token': 'YOUR_SESSION_TOKEN_HERE'
}

response = requests.get(url, headers=headers, cookies=cookies)
print(response.text)

7.3.3 拓展案例 1:动态更换用户代理

为了让爬虫在每次请求时都使用不同的用户代理,我们可以使用 fake_useragent 库来动态生成用户代理字符串。

from fake_useragent import UserAgent
import requests

ua = UserAgent()
url = "http://example.com"

# 每次请求使用不同的用户代理
for _ in range(5):
    headers = {'User-Agent': ua.random}
    response = requests.get(url, headers=headers)
    print(f"使用用户代理 {headers['User-Agent']} 访问 {url}")

7.3.4 拓展案例 2:使用 session 对象管理 Cookie

requests 库的 Session 对象可以自动管理 Cookie,使得爬虫在多次请求之间保持某些状态(如登录状态)。

import requests

# 创建一个 session 对象
session = requests.Session()

# 首先登录以获取 Cookie
login_url = "http://example.com/login"
credentials = {'username': 'user', 'password': 'pass'}
session.post(login_url, data=credentials)

# 现在 session 中已经保存了登录状态,我们可以访问需要认证的页面
secret_url = "http://example.com/secret-data"
response = session.get(secret_url)
print(response.text)

通过掌握用户代理和 Cookie 的管理技巧,你的爬虫将能够更加自由地在网络世界中探索,获取那些隐藏的、需要认证才能访问的珍贵数据。记得,使用这些技术时要遵守目标网站的使用条款,尊重用户数据的隐私和安全。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/372260.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

荣获双强认证!玻色量子荣登投资界2023Venture50新芽榜数字科技50强

2024年1月16日&#xff0c;由清科创业&#xff08;1945.HK&#xff09;、投资界发起的2023Venture50评选结果成功揭晓&#xff01;此次评选包含风云榜与新芽榜TOP50&#xff0c;以及五大行业榜单。玻色量子作为量子计算领军企业&#xff0c;荣登新芽榜50强与数字科技50强双强榜…

如何将pdf转换成ppt?掌握这个方法就简单多了

有时候&#xff0c;PDF文件的布局和设计可能需要进行微调或重新排版&#xff0c;以适应PPT的特定格式和风格。那么怎么pdf怎么转ppt呢&#xff1f;为了更方便地对布局、字体、图像和其他元素进行编辑和调整&#xff0c;以符合PPT的需求&#xff0c;我们可以直接通过pdf在线转pp…

zabbix server/agent源码编译成rpm包(通用版-小白教程)

前言 工作环境需要用到很多信创的操作系统&#xff0c;zabbix agent2的官方没有现成的包可用&#xff0c;网上巴拉了一下找到zabbix agent2通用版编译成rpm包的方法 思路&#xff1a;假如当你有一批ky10_x86的机器需要配套的zabbix agent的rpm包&#xff0c;那就找一台ky10_x…

【Linux】linux自动化构建工具make/makefile

linux自动化构建工具make/makefile 一&#xff0c;makefile是什么二&#xff0c;如何写makefile三&#xff0c;文件的三个时间属性四&#xff0c;makefile的推导 一&#xff0c;makefile是什么 对于make和makefile&#xff0c;简单来说&#xff0c;make是一个命令&#xff0c;用…

全网第一篇把Nacos配置中心服务端讲明白的

入口 getServerConfig对应&#xff1a;ConfigQueryRequestHandler&#xfffd;getBatchServiceConfig对应&#xff1a;ConfigChangeBatchListenResponse&#xfffd;admin对应&#xff1a;ConfigController 我们重点就要2个&#xff0c;一个是服务端如何完成客户端获取配置请…

Springboot简单设计两级缓存

两级缓存相比单纯使用远程缓存&#xff0c;具有什么优势呢&#xff1f; 本地缓存基于本地环境的内存&#xff0c;访问速度非常快&#xff0c;对于一些变更频率低、实时性要求低的数据&#xff0c;可以放在本地缓存中&#xff0c;提升访问速度 使用本地缓存能够减少和Redis类的远…

你知道网页采集工具吗?

一、网页采集器的定义和作用 网页采集器是一种自动化工具,用于从互联网上获取信息并将其保存到本地或远程数据库中。其作用在于帮助用户快速、自动地收集并整理网络上的信息,提高工作效率并且节省时间成本。网页采集器通过模拟人工浏览网页的行为,访问并提取目标网页的数据…

L1-037 A除以B-java

输入样例1&#xff1a; -1 2输出样例1&#xff1a; -1/2-0.50输入样例2&#xff1a; 1 -3输出样例2&#xff1a; 1/(-3)-0.33输入样例3&#xff1a; 5 0输出样例3&#xff1a; 5/0Error java import java.util.*; class Main{public static void main(String[] args){Sc…

机器学习中常用的性能度量—— ROC 和 AUC

什么是泛化能力&#xff1f; 通常我们用泛化能力来评判一个模型的好坏&#xff0c;通俗的说&#xff0c;泛化能力是指一个机器学期算法对新样本&#xff08;即模型没有见过的样本&#xff09;的举一反三的能力&#xff0c;也就是学以致用的能力。 举个例子&#xff0c;高三的…

BUUCTF-Real-[ThinkPHP]IN SQL INJECTION

目录 漏洞描述 漏洞分析 漏洞复现 漏洞描述 漏洞发现时间&#xff1a; 2018-09-04 CVE 参考&#xff1a;CVE-2018-16385 最高严重级别&#xff1a;低风险 受影响的系统&#xff1a;ThinkPHP < 5.1.23 漏洞描述&#xff1a; ThinkPHP是一款快速、兼容、简单的轻量级国产P…

Stable Diffusion 模型下载:ReV Animated

文章目录 模型介绍生成案例案例一案例二案例三案例四案例五案例六案例七案例八案例九案例十下载地址模型介绍 该模型能够创建 2.5D 类图像生成。此模型是检查点合并,这意味着它是其他模型的产物,以创建从原始模型派生的产品。 条目内容类型大模型

游戏视频录制软件推荐,打造专业电竞视频(3款)

随着游戏产业的快速发展&#xff0c;越来越多的玩家开始关注游戏视频录制软件。一款好的录制软件不仅可以帮助玩家记录游戏中的精彩瞬间&#xff0c;还可以让其与他人分享自己的游戏体验。接下来&#xff0c;我们将介绍三款热门的游戏视频录制软件&#xff0c;并对其进行详细的…

pwn学习笔记(2)

pwn学习笔记&#xff08;2&#xff09; 1.三种常见的寄存器&#xff1a; ​ ax寄存器&#xff1a;通用寄存器&#xff0c;可用于存放多种数据 ​ bp寄存器&#xff1a;存放的是栈帧的栈底地址 ​ sp寄存器&#xff1a;存放的是栈顶的地址 2.栈帧与栈工作的简介&#xff1a…

arping交叉编译

arping命令依赖libpcap和libnet&#xff0c;需要先交叉编译这两个库。 1.交叉编译libpcap 下载libpcap源文件&#xff0c;从github上克隆: git clone https://github.com/the-tcpdump-group/libpcap.git source交叉编译环境 # environment-setup是本机的交叉编译环境, 里面…

Centos7配置登录失败处理导致root被锁定处理办法

1、应用场景 root用户被系统锁定&#xff0c;无法登录系统。 2、问题现象 root锁定无法登录系统 3、原因 设置登录失败处理并对root用户生效&#xff0c;一直尝试错误的root密码或暴力破解root密码&#xff0c;导致无法自动解锁Linux的root账户 4、解决方案 1.将虚拟机开…

0 代码自动化测试:RF 框架实现企业级 UI 自动化测试

前言 现在大家去找工作&#xff0c;反馈回来的基本上自动化测试都是刚需&#xff01;没有自动化测试技能&#xff0c;纯手工测试基本没有什么市场。 但是很多人怕代码&#xff0c;觉得自动化测试就需要代码&#xff01;代码学习起来很难&#xff01; 当然代码学习不难&#xf…

重生奇迹MU如何挂机

1、重生奇迹MU觉醒哪里挂机经验多挂机收益最大化&#xff0c;在重生奇迹MU中玩家可以通过副本获得大量的经验和金币&#xff0c;甚至挂机也有不错的收益&#xff0c;对于玩家来说 2、卡利玛神庙、血色城堡、迷失之城、恶魔广场甚至是挂机自动刷怪&#xff0c;组队都会有经验加…

骑砍战团MOD开发(43)-顶点着色技术

一.顶点着色(vertex_color) 实际GPU渲染时有顶点着色和纹理着色两种方式,顶点着色消耗资源小,GPU将顶点颜色通过插值运算进行渲染.常用于同一物体的不同颜色渲染,如青苹果,红苹果,可以使用动态切换顶点颜色实现,而不通过设置纹理图片实现. Direct3D9中可声明灵活顶点格式 stru…

TorchVision的使用方法、更改默认路径

TorchVision的使用 1. 转换和增强图像 torchvision.transforms.v2 参数作用Resize将输入调整为给定大小RandomShortestSize随机调整输入的大小RandomResize随机调整输入的大小RandomCrop在随机位置裁剪输入RandomResizedCrop裁剪输入的随机部分并将其调整为给定大小RandomIoU…

为什么PCB地与金属机壳用阻容连接?

笔者电子信息专业硕士毕业&#xff0c;获得过多次电子设计大赛、大学生智能车、数学建模国奖&#xff0c;现就职于南京某半导体芯片公司&#xff0c;从事硬件研发&#xff0c;电路设计研究。对于学电子的小伙伴&#xff0c;深知入门的不易&#xff0c;特开次博客交流分享经验&a…