python爬虫学习第十五天-------ajax的get和post请求

嗨嗨嗨!兄弟姐妹大家好哇!今天我们来学习ajax的get和post请求

一、了解ajax

Ajax(Asynchronous JavaScript and XML)是一种在 Web 开发中用于创建交互式网页应用程序的技术。通过 Ajax,网页可以在不重新加载整个页面的情况下,与服务器进行异步通信,从而实现动态加载内容和更新页面的部分内容。

在 Ajax 中,最常用的请求方法是 GET 和 POST。GET 请求用于从服务器获取数据,而 POST 请求用于向服务器提交数据。通过 GET 请求,可以向服务器发送查询参数,服务器根据这些参数返回相应的数据。这使得网页能够动态地获取和显示数据,而无需刷新整个页面。

二、ajax的get请求

Ajax 是一种在 Web 开发中用于创建交互式网页应用程序的技术。在爬取包含 Ajax 请求的网页时,通常需要模拟这些请求,以获取完整的数据。Python 爬虫可以通过模拟这些 Ajax 请求来获取动态加载的内容。

要实现爬取包含 Ajax 请求的网页,通常需要以下步骤:

  1. 分析网页:使用开发者工具或类似工具分析网页,找到包含 Ajax 请求的 URL、请求方法、请求参数等信息。
  2. 模拟请求:使用 Python 的网络请求库(如 requests)构造并发送与 Ajax 请求相同的请求。
  3. 解析响应:解析 Ajax 请求的响应内容,提取所需的数据。
  4. 循环请求:如果需要获取多页数据,可以根据网站的分页规则构造多个请求。

以下是一个简单的示例,演示如何使用 Python 爬虫模拟 Ajax 的 GET 请求:

import requests

url = '<https://api.example.com/data>'
params = {
    'param1': 'value1',
    'param2': 'value2'
}

response = requests.get(url, params=params)
if response.status_code == 200:
    data = response.json()
    print(data)
else:
    print('请求失败:', response.status_code)

在这个示例中,我们使用了 requests 库发送了一个带有参数的 GET 请求,并将响应解析为 JSON 格式的数据。请注意,实际的 Ajax 请求可能需要更复杂的参数配置和数据解析。

案列:

(1)爬取豆瓣电影前10页的数据

要爬取豆瓣电影前10页的数据,首先需要找到豆瓣电影的网页地址和Ajax请求的接口。以豆瓣电影Top250为例,网页地址为 https://movie.douban.com/top250,Ajax请求接口为 https://movie.douban.com/j/chart/top_list?type=11&interval_id=100%3A90&action=&start=0&limit=20。

接下来,我们可以编写Python代码来模拟Ajax请求,实现爬取豆瓣电影Top250前10页的数据。以下是一个示例代码:

import requests
import json
import time

url = '<https://movie.douban.com/j/chart/top_list>'
params = {
    'type': '11',         # 类型为电影Top250
    'interval_id': '100:90',  # 区间为100年代到90年代
    'action': '',         # 未指定动作
    'start': '0',         # 起始位置,每页20个
    'limit': '20'         # 每页数量
}

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.75 Safari/537.36'
}

movies_data = []

for page in range(10):  # 爬取前10页
    params['start'] = str(page * 20)  # 计算每页起始位置
    try:
        response = requests.get(url, params=params, headers=headers)
        if response.status_code == 200:
            movies = response.json()
            movies_data.extend(movies)
            time.sleep(1)  # 每次请求后暂停1秒,减少请求频率
        else:
            print('请求失败:', response.status_code)
            break
    except requests.exceptions.RequestException as e:
        print('请求异常:', e)
        break

# 打印所有电影信息
for movie in movies_data:
    print(f"电影名称:{movie['title']}")
    print(f"评分:{movie['score']}")
    print(f"链接:{movie['url']}")
    print()

请注意,豆瓣网站有反爬虫机制,频繁的请求可能会被拒绝。建议在开发爬虫时遵守网站的规定,避免对网站造成过大的负担。

结果:

(2)

贴近实际情况的示例,演示如何使用Python的Requests库和Beautiful Soup库爬取一个使用Ajax加载的网页。我们将从一个示例网站获取数据,该网站使用Ajax加载商品信息,并且商品信息支持分页。

假设我们要爬取的网站是 https://www.example.com/products,该网站上有关于商品的信息,商品信息通过Ajax加载,每次加载10个商品,我们需要模拟点击“加载更多”按钮来获取所有商品信息。

import requests
from bs4 import BeautifulSoup
import json

url = '<https://www.example.com/products>'
params = {
    'page': 1,  # 第一页商品
    'limit': 10  # 每页10个商品
}

products_data = []

while True:
    response = requests.get(url, params=params)
    if response.status_code == 200:
        soup = BeautifulSoup(response.text, 'html.parser')
        # 找到商品数据所在的标签
        products = soup.find('div', class_='products-list')
        if not products:
            break
        # 提取商品数据
        for product in products.find_all('div', class_='product'):
            product_info = {
                'name': product.find('h3').text.strip(),
                'price': product.find('span', class_='price').text.strip(),
                'description': product.find('p', class_='description').text.strip()
            }
            products_data.append(product_info)
        # 判断是否还有下一页商品
        if soup.find('a', class_='load-more'):
            params['page'] += 1
        else:
            break
    else:
        print('请求失败:', response.status_code)
        break

# 打印所有商品信息
for product_info in products_data:
    print(f"商品名称:{product_info['name']}")
    print(f"价格:{product_info['price']}")
    print(f"描述:{product_info['description']}")
    print()

请注意,实际网站的商品加载可能会有更复杂的逻辑和参数,您需要根据具体情况调整代码。同时,注意网站的爬取规则,不要对网站造成过大的负担或违反其使用规定。

三、ajax的post请求

Python 爬虫中的 Ajax POST 请求指的是使用 Python 发送模拟浏览器发送的 POST 请求,以获取网页上通过 Ajax 加载的动态内容。Ajax 是一种在 Web 开发中使用的技术,能够在不刷新整个页面的情况下,通过异步请求与服务器进行通信,并更新页面的部分内容。

要实现 Python 爬虫的 Ajax POST 请求,一般需要以下步骤:

  1. 分析请求:使用开发者工具分析网页,找到需要获取数据的 Ajax 请求的 URL、请求方式、请求参数等信息。
  2. 构造请求:使用 Python 的 requests 库构造 POST 请求,并设置请求头部信息,模拟浏览器发送请求。
  3. 发送请求:发送构造好的 POST 请求到服务器,并获取返回的响应数据。
  4. 处理响应:解析响应数据,提取需要的信息,如 JSON 格式的数据或 HTML 内容。

下面是一个示例,演示了如何使用 Python 爬虫发送 Ajax 的 POST 请求:

import requests

url = '<https://example.com/api/data>'
data = {
    'param1': 'value1',
    'param2': 'value2'
}

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.75 Safari/537.36',
    'X-Requested-With': 'XMLHttpRequest'  # 模拟 Ajax 请求的关键头部信息
}

response = requests.post(url, data=data, headers=headers)

if response.status_code == 200:
    result = response.json()
    print(result)
else:
    print('请求失败:', response.status_code)

在这个示例中,我们使用 requests 库发送了一个带有数据的 POST 请求,并设置了模拟 Ajax 请求的关键头部信息 'X-Requested-With': 'XMLHttpRequest'。根据实际情况,你可能需要调整 URL、数据和请求头部信息。

案例:

面是一个示例,演示了如何使用 Python 爬虫模拟登录并发送带有身份验证信息的 Ajax POST 请求来获取登录后的数据:

import requests

# 登录页面 URL
login_url = '<https://example.com/login>'
# 登录表单数据
login_data = {
    'username': 'your_username',
    'password': 'your_password'
}

# 登录请求,使用 session 保持会话状态
session = requests.Session()
response = session.post(login_url, data=login_data)

if response.status_code == 200:
    # 登录成功后的操作
    # 获取登录后页面的数据,假设为 <https://example.com/data>
    data_url = '<https://example.com/data>'
    data_response = session.post(data_url)
    
    if data_response.status_code == 200:
        # 处理数据
        data = data_response.json()
        print(data)
    else:
        print('获取数据失败:', data_response.status_code)
else:
    print('登录失败:', response.status_code)

在这个示例中,我们首先发送了一个 POST 请求来模拟登录。如果登录成功,会话将保持,然后我们使用相同的会话发送了另一个带有身份验证信息的 POST 请求来获取登录后的数据。这种方式可以模拟用户在浏览器中的操作,获取登录后才能访问的数据。

四、总结

总的来说,在使用Python进行网络爬虫时,要根据具体的需求和目标网站的接口设计选择合适的请求方式。GET请求适合用于获取数据,而POST请求适合用于提交数据。通过**requests**库,我们可以方便地发送这两种类型的AJAX请求,并获取服务器响应。使用正确的请求方式能够更有效地进行数据采集和处理,提高爬虫的效率和可靠性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/522207.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

爱上数据结构:二叉树

​ ​ &#x1f525;个人主页&#xff1a;guoguoqiang. &#x1f525;专栏&#xff1a;数据结构 ​ 一、二叉树的顺序结构及实现 1.二叉树的顺序结构 普通的二叉树是不适合用数组来存储的&#xff0c;因为可能会存在大量的空间浪费。而完全二叉树更适合使用顺序结构存储。…

String工具类 StringBuilder、StringBuffer、StringJoiner

StringBuilder StringBuilder是可变字符串对象&#xff0c;是一个字符串容器&#xff0c;里面的字符串是可以改变的&#xff0c;就是用来操作字符串的。相比较于String&#xff1a; 更适合于做修改操作使代码看上去更加简洁效率更高 常見的api 代码 StringBuilder sb new Str…

【随笔】Git 高级篇 -- 整理提交记录(上)cherry-pick(十五)

&#x1f48c; 所属专栏&#xff1a;【Git】 &#x1f600; 作  者&#xff1a;我是夜阑的狗&#x1f436; &#x1f680; 个人简介&#xff1a;一个正在努力学技术的CV工程师&#xff0c;专注基础和实战分享 &#xff0c;欢迎咨询&#xff01; &#x1f496; 欢迎大…

【无标题】【Android】Android中Intent的用法总结

2.显示地图: Java代码 Uri uri Uri.parse(“geo:38.899533,-77.036476”); Intent it new Intent(Intent.Action_VIEW,uri); startActivity(it); 3.从google搜索内容 Java代码 Intent intent new Intent(); intent.setAction(Intent.ACTION_WEB_SEARCH); intent.pu…

狗都能看懂的DDPM的论文详解

DDPM/扩散模型是什么 DDPM&#xff08;Denoising Diffusion Probabilistic Models&#xff09;是扩散模型的一种&#xff0c;在视觉领域是属于生成式的模型。 扩散模型&#xff08;Diffusion Model&#xff09;的概念最早可以追溯到统计物理学中的玻尔兹曼机&#xff08;Bolt…

WPS解决插入公式在正文带来行间距变大问题

问题描述 写论文解释公式时&#xff0c;插入对应的变量&#xff0c;导致行间距变大&#xff0c;如图 显然上文与下文行间距不等。但无法通过修改数值修改下文行间距。 解决办法

给毕业生推荐的三款二手车

我是一名纯正的90后&#xff0c;2011年毕业&#xff0c;汽车维修专业毕业&#xff0c;从小对汽车非常感兴趣&#xff0c;由于某些不可抗拒的原因&#xff0c;我在当年义无反顾的选择了去学习汽车维修&#xff0c;想着自己能做一名牛B 的汽车修理工&#xff0c;不为别的&#xf…

wordpress全站开发指南-面向开发者及深度用户(全中文实操)--php数组与基本循环

php数组与基本循环 <?php$myName"xixi";$namesarray(xixi1,xixi2,xixi3); ?> <p> Hi ,my name is <?php echo $myName; ?> </p> <p> Hi,my name is <?php echo $names[0] ?> </p> <p> Hi,my name is <?…

SMW200A罗德与施瓦茨SMW200A信号发生器

181/2461/8938产品概述&#xff1a; SMW200A是开发新型宽带通信系统&#xff0c;验证3G和4G基站&#xff0c;以及需数字调制信号的理想信号发生器。 SMW200A 矢量信号发生器 具有内部基带、高达2 GHz的I/Q调制带宽可以满足第4代和第5代标准(例如&#xff0c;5G、LTE-Advanced…

小程序商城免费搭建之java商城 电子商务Spring Cloud+Spring Boot+二次开发+mybatis+MQ+VR全

1. 涉及平台 平台管理、商家端&#xff08;PC端、手机端&#xff09;、买家平台&#xff08;H5/公众号、小程序、APP端&#xff08;IOS/Android&#xff09;、微服务平台&#xff08;业务服务&#xff09; 2. 核心架构 Spring Cloud、Spring Boot、Mybatis、Redis 3. 前端框架…

最短路计数

题目描述 给出一个 N 个顶点 M 条边的无向无权图&#xff0c;顶点编号为 1∼N。问从顶点 1 开始&#xff0c;到其他每个点的最短路有几条。 输入描述 第一行包含 2 个正整数 N,M&#xff0c;为图的顶点数与边数。 接下来 M 行&#xff0c;每行两个正整数 x,y&#xff0c;表示…

机器学习周记(第三十三周:文献阅读[GWO-GART])2024.4.1~2024.4.7

目录 摘要 ABSTRACT 1 论文信息 1.1 论文标题 1.2 论文摘要 1.3 论文数据集 1.4 论文模型 2 相关知识 摘要 本周阅读了一篇使用GAT结合GRU预测PM2.5浓度的文章。论文模型为图注意力循环网络&#xff08;GART&#xff09;&#xff0c;首次提出了一种新型的多层GAT架构&…

2024-简单点-python中的多重继承mro和super的联系

在Python的多重继承中&#xff0c;super()函数的作用主要是确保父类的方法被正确地调用&#xff0c;同时避免了直接调用父类可能带来的问题&#xff0c;如方法覆盖或名称冲突。super()的使用是Python实现合作式多重继承的关键。 具体来说&#xff0c;当一个类从多个父类继承时…

HTTP 摘要认证

文章目录 一、什么是摘要认证二、工作流程三、实例演示 一、什么是摘要认证 摘要认证&#xff0c;即 Digest Access Authentication&#xff0c;是一种HTTP身份验证机制&#xff0c;用于验证用户的身份。相较于基本认证&#xff08;Basic Authentication&#xff09;使用用户名…

Qt快速入门到熟练(3.程序运行发布与设置图标)

程序运行发布 当我们执行过qt过后&#xff0c;将会在项目目录里面生成出一个debug构建目录&#xff0c;点击进去选择debug文件夹&#xff0c;就可以看到我们生成出来的可执行文件。 很显然我们的项目就叫做MyFirstWidget&#xff0c;所以生成的可执行文件在没有人为设置的情…

CLR学习

视频链接&#xff1a;《CLR十分钟》系列之CLR运行模型_哔哩哔哩_bilibili 什么是 CLR 公共语言运行时&#xff08;Common Language Runtime CLR&#xff09; 是一个可有多种编程语言使用的 运行时&#xff0c;CLR 的核心功能&#xff08;比如 内存管理&#xff0c;程序集加载…

notion的使用心得

从老石的视频知道了notion是一个很强大的管理工具&#xff1a;这就是最棒的效率软件&#xff01;如果不是&#xff0c;我倒想试试你的 | Notion使用技巧分享_哔哩哔哩_bilibili 我一时半会不能全部学会&#xff0c;但是借用大家的好模板&#xff1a;如何用5分钟搭建简洁高效的…

html5分步问卷调查表模板源码

文章目录 1.设计来源1.1 问卷调查11.2 问卷调查21.3 问卷调查31.4 问卷调查41.5 问卷调查51.6 问卷调查6 2.效果和源码2.1 完整效果2.2 源代码 源码下载 作者&#xff1a;xcLeigh 文章地址&#xff1a;https://blog.csdn.net/weixin_43151418/article/details/137454703 html5分…

React 项目配置代码提交规范 ESLint、Pretttier、Husky、CommitLint

React 项目配置代码提交规范 ESLint、Pretttier、Husky、CommitLint 前言 团队开发的成员越来越多&#xff0c;项目都是由多个人进行开发和维护&#xff0c;每个人的代码书写习惯和风格又不尽相同&#xff0c;commit 的提交log 也是乱七八糟&#xff0c;为以后的开发和维护增…

PPT在线压缩工具推荐

有时候使用邮箱发送邮件时&#xff0c;添加的PPT、Word、PDF文档总会因为过大而转为其他类型的附件发送&#xff0c;不仅上传缓慢&#xff0c;对方查收下载时还有有效期限制&#xff0c;7天或15天后就过期再也无法下载了&#xff0c;有没有什么办法可以压缩PPT等文档&#xff0…